首页 > 其他分享 >【NeurIPS2022】Fast Vision Transformers with HiLo Attention

【NeurIPS2022】Fast Vision Transformers with HiLo Attention

时间:2022-12-03 20:35:18浏览次数:54  
标签:Transformers NeurIPS2022 Attention Fast HiLo 注意力

请添加图片描述

这个论文的核心贡献是提出了一种新的注意力机制 HiLo(High / Low frequency)。如下图所示,在上面部分,分配了 \(1-\alpha\) 比例的 head 用于提取高频注意力,下面分配了 \(\alpha\) 比例的 head 用于提取低频注意力。

请添加图片描述

高频注意力: 在2x2的窗口中计算 attention。

低频注意力: 将2x2的窗口池化,得到的特征做为 K 和 V。原始特征做为 Q,再计算注意力。(基本上和 PVT 中的计算方法一样)。因为 KV 特征维度减少,计算效率显著提升。

论文中还使用了一个 trick,使用 3x3 的 depth-wise conv 替换位置编码,这样不仅能引入 positional encoding,还能够增大网络前期的感受野。

标签:Transformers,NeurIPS2022,Attention,Fast,HiLo,注意力
From: https://www.cnblogs.com/gaopursuit/p/16948718.html

相关文章