首页 > 其他分享 >EfficientMod:微软出品,高效调制主干网络 | ICLR 2024

EfficientMod:微软出品,高效调制主干网络 | ICLR 2024

时间:2024-08-19 09:48:15浏览次数:9  
标签:right EfficientMod 卷积 2024 textrm ICLR 调制 left

Efficient Modulation (EfficientMod) 融合了卷积和注意力机制的有利特性,同时提取空间上下文并对输入特征进行投影,然后使用简单的逐元素乘法将其融合在一起。EfficientMod的设计保证了高效性,而固有的调制设计理念则保证了其强大的表示能力来源:晓飞的算法工程笔记 公众号

论文: Efficient Modulation for Vision Networks

Introduction


  视觉TransformerViT)在广泛的视觉任务中展现了令人印象深刻的成就,并为视觉网络设计贡献了创新的思路。得益于自注意力机制,ViTs在动态特性和长距离上下文建模的能力上与传统卷积网络有所区别。然而,由于自注意力机制在视觉标记数量上具有二次复杂度,其既不具备参数效率也不具备计算效率,这阻碍了ViTs在边缘设备、移动设备和其他实时应用场景上的部署。因此,一些研究尝试在局部区域内使用自注意力,或者选择性地计算信息标记,以减少计算量。同时,一些工作尝试将卷积和自注意力结合起来,以实现理想的效果和效率的折衷。

  最近的一些研究表明,纯卷积网络也能够与自注意力相比取得令人满意的结果。其中,FocalNetVAN以计算效率高和易于实现而著称,展现了领先的性能且显著优于ViT的对应模型。一般来说,这两种方法都使用大核卷积块进行上下文建模,并通过逐元素乘法调节投影输入特征(随后是一个MLP块),如图1b所示。这种设计统称为调制机制,它表现出有前景的性能,并且从卷积的有效性和自注意力的动态性中获益。尽管调制机制在理论上是高效的(从参数和FLOPs的角度来看),但在计算资源有限时推断速度不尽如人意。造成这种情况的原因主要有两个:

  • 冗余和等效操作,如连续的深度卷积和冗余的线性投影占据了大部分操作时间。
  • 上下文建模分支中的碎片化操作显著增加了延迟,并违反了ShuffleNetv2中的指导原则G3

  为此,论文提出了高效调制(Efficient Modulation),可以作为高效模型的基本构建块(见图1c)。与FocalNetVAN的调制块相比,高效调制块更加简单并继承了所有的优点(见图1b和图1c)。与Transformer块相比,高效调制块的计算复杂度与图像尺寸呈线性关系,强调大规模但局部的特征交互,而Transformer则与标记数量的立方相关并直接计算全局交互。与反向残差(MBConv)块相比,高效调制块使用更少的通道进行深度卷积,并融入了动态特性。

  基于高效调制(Efficient Modulation)块,论文提出了基于纯卷积的新型高效网络架构EfficientModEfficientMod块与传统的自注意力块正交,并且与其他设计具有良好的兼容性。通过将注意力块与EfficientMod集成的混合架构,可以产生更好的结果。在不使用神经网络搜索(NAS)的情况下,EfficientMod在各种任务中展现出非常不错的性能。与最先进方法EfficientFormerV2相比,EfficientMod-sGPU上的速度比EfficientFormerV2-S225%,并且在top-1准确率上超过了EfficientFormerV2-S20.3个百分点。此外,EfficienntMod在下游任务中也显著超越了EfficientFormerV2,在ADE20K语义分割基准测试中,其mIoUEfficientFormerV2高出了3.6个百分点,而模型复杂度相当。

Method


Revisit Modulation Design

  • Visual Attention Networks

VAN提出了一个简单且有效的卷积注意力设计。具体而言,给定输入特征\(x\in\mathbb{R}^{c\times h \times w}\),首先使用一个全连接(FC)层(带有激活函数)\(f\left(\cdot \right)\)将\(x\)投影到一个新的特征空间,然后将其输入到两个分支。第一个分支\(\texttt{ctx}\left(\cdot\right)\)提取上下文信息,第二个分支是一个恒等映射。使用逐元素乘法来融合来自两个分支的特征,随后添加一个新的线性投影\(p\left(\cdot \right)\)。具体来说,VAN块可以写成:

\[\begin{equation} \textrm{Output} = p\left( \texttt{ctx}\left(f\left(x\right) \right) \odot f\left(x\right) \right), \end{equation} \]

\[\begin{equation} \texttt{ctx}\left(x\right) = g\left(\textrm{DWConv}_{7,3}\left(\textrm{DWConv}_{5,1}\left(x\right)\right)\right), \end{equation} \]

  其中,\(\odot\) 表示逐元素相乘,\(\textrm{DWConv}\_{k,d}\) 表示具有核大小\(k\)和扩张率\(d\)的深度可分离卷积,\(g\left(\cdot\right)\) 是上下文分支中的另一个全连接(FC)层。遵循MetaFormer的设计理念,VAN块被用作标记混合器,并且后续连接一个具有深度可分离卷积的双层MLP块作为通道混合器。

  • FocalNets

FocalNets引入了焦点调制来替代自注意力,同时享有动态性和较大的感受野。FocalNet还提出了一种并行的双分支设计,一个上下文建模分支\(\texttt{ctx}\left(\cdot\right)\)自适应地聚合不同层次的上下文,一个线性投影分支\(v\left(\cdot\right)\)将\(x\)投影到一个新的空间。类似地,这两个分支通过逐元素相乘进行融合,然后使用一个FC层\(p\left(\cdot\right)\)。形式上,FocalNet中的分层调制设计可以表示为(为了清晰起见,忽略全局平均池化层):

\[\begin{equation} \texttt{ctx}\left(x\right) = g\left(\sum\_{l=1}^{L} \textrm{act}\left(\textrm{DWConv}\_{k\_l}\left(f\left(x\right)\right)\odot \textrm{z}\left(f\left(x\right)\right)\right) \right), \end{equation} \]

  其中,\(\texttt{ctx}\) 包括由具有大小为\(k\_l\)的深度可分离卷积层分层提取的\(L\)层上下文信息,\(z\left(\cdot\right)\) 将\(c\)通道特征投影到一个门控值。\(\textrm{act}\left(\cdot\right)\) 是在每个卷积层之后的GELU激活函数。

  • Abstracted Modulation Mechanism

VANFocalNet均展示出了良好的表征能力,并表现出令人满意的性能。实际上,这两种方法都共享一些不可或缺的设计,可能就是性能提升的关键:

  1. 这两个并行分支是独立操作的,从不同的特征空间提取特征,类似于自注意力机制(如图1a所示)。
  2. 在上下文建模方面,两者均考虑了较大的感受野。VAN堆叠了两个具有扩张的大核卷积,而FocalNet引入了分层上下文聚合以及全局平均池化来实现全局交互。
  3. 这两种方法通过逐元素相乘将来自两个分支的特征融合在一起,这在计算上是高效的。
  4. 在特征融合之后采用了线性投影。

  与此同时,它们也存在着明显的不同设计,比如上下文建模的具体实现以及特征投影分支的设计(共享或独立投影)。基于上述相似之处并忽略特定的差异,论文将调制机制进行抽象,如图1b所示,并形式定义如下:

\[\begin{equation} \textrm{Output} = p\left( \texttt{ctx}\left(x\right) \odot v\left(x\right) \right). \end{equation} \]

  这个抽象的调制机制在理论上继承了卷积和自注意力的优良特性,但实际以卷积方式运算,且具有令人满意的效率。具体地,公式4由于逐元素相乘而具有类似自注意力的动态性。上下文分支还引入了局部特征建模,但也通过大的核大小实现了较大的感受野(这对效率来说不是瓶颈)。遵循VANFocalNet,在调制后引入一个两层MLP块。

Efficient Modulation

  尽管比自注意力更高效,但抽象的调制机制在理论复杂度和推理延迟方面仍无法满足移动网络的效率要求。因此,论文提出了高效调制(Efficient Modulation),旨在为高效网络量身定制的同时保留调制机制的所有优良特性。

  • Sliming Modulation Design

  通用的调制块具有许多零散的操作,如图1b所示。比如未考虑上下文建模实现的细节,引入了四个全连接(FC)层。正如ShuffleNetv2中的指导原则G3所述,即使通过调整通道数量可以降低计算复杂度,但太多的零散操作也将显著降低速度。因此,论文融合了MLP和调制块的FC层,如图1c所示。使用\(v\left(\cdot\right)\)基于通过扩展因子\(r\)来扩展通道维度,并利用\(p\left(\cdot\right)\)来压缩通道数量。换句话说,MLP块与调制设计融合并且具有灵活的扩展因子,产生类似于MBConv块的统一块。

  • Simplifying Context Modeling

  为了提高效率,对上下文建模分支进行定制。给定输入\(x\),首先通过线性投影\(f\left(x\right)\)将\(x\)投影到一个新的特征空间,然后使用具有GELU激活的深度可分离卷积来建模局部空间信息(设置核大小为7,作为平衡效率和较大感受野之间的折衷),最后使用线性投影\(g\left(x\right)\)进行通道间的信息交流。值得注意的是,在整个上下文建模分支中,通道数量保持不变。简而言之,上下文建模分支可以表示为:

\[\begin{equation} \texttt{ctx}\left(x\right) = g\left( \textrm{act}\left( \textrm{DWConv}\_{7,1}\left( f\left( x \right) \right) \right) \right). \end{equation} \]

  这种设计比VANFocalNet中的上下文建模要简单得多,通过一个大核的深度可分离卷积抛弃了等效的多个深度可分离卷积。这可能会在一定程度上牺牲性能以换取效率,但消融研究表明,上下文分支中的每个操作都是必不可少的。

Network Architecture

EfficientMod采用了4个阶段的分层架构,每个阶段由一系列带有残差连接的EfficientMod模块组成。为了简化起见,使用重叠的图像块嵌入(通过卷积层实现下采样)分别将特征减小4倍、2倍、2倍和2倍。对于每个模块,使用层归一化来对输入特征进行归一化,然后将归一化的特征输入EfficientMod模块。采用随机深度和层缩放来改善模型的鲁棒性。

  需要注意的是,EfficientMod模块与自注意机制是正交的,将EfficientMod模块与注意力模块相结合即可得到一种新的混合设计。混合结构将原始注意力模块引入到特征尺寸相对较小的最后两个阶段,根据纯卷积型EfficientMod对应模块的参数进行宽度和深度修改,保证进行公平比较。一共设计三个规模的混合结构,参数范从4M13M,分别为EfficientMod-xxsEfficientMod-xsEfficientMod-s

Computational Complexity analysis

  给定输入特征\(x\in\mathbb{R}^C\times H\times W\),EfficientMod模块的总参数数量为\(2\left(r+1\right)C^2+k^2C\),计算复杂度为\(\mathcal{O}\left(2(r+1)HWC^2 + HWk^2C\right)\),其中\(k\)为卷积核大小,\(r\)为\(v\left(\cdot\right)\)中的扩张比率。为了简化,忽略了可学习层中的激活函数和偏置项。与注意力机制相比,EfficientMod模块的复杂度与输入分辨率呈线性关系。与MBConv相比,EfficientMod模块将深度可分离卷积的复杂度减少了\(r\)倍(MBConv有升维操作),这对于有效性至关重要。

  除了理论计算复杂度外,论文提供了一些实际指南:

  1. 通过将更多参数移至特征分辨率较小的后期阶段来减少FLOPs。这样做的原因在于EfficientModFLOPs基本上等于输入分辨率乘以参数数量。遵循这一指导方针,可以在后期阶段添加更多的模块或者大幅增加宽度。需要注意的是,这一指南并不仅适用于我们的EfficientMod,也可以应用于所有的全连接和卷积层。
  2. 只在最后两个阶段引入注意力模块,考虑到自注意力的计算复杂度,这是许多研究中的一种常见做法。
  3. 使用Repeat操作来匹配通道数(两个分支的输出特征),以节省CPU时间并仅需少量GPU开销。EfficientFormer观察到,对于许多模型来说,Reshape操作通常是瓶颈。ReshapeCPU上运行缓慢,但在GPU上友好。与此同时,Repeat操作在CPU上运行迅速,但在GPU上耗时。如图2所示(这里应该是图标反了),选择Repeat操作来获得最佳的GPU-CPU延迟折衷。(这一点有点疑问,这里使用Repeat是为了匹配少了的维度数,Reshape应该达不到这个效果。私信了作者,这里的Reshape实际为torch.broadcast_to函数)

Relation to Other Models

  • MobileNetV2

  通过引入Mobile Inverted Bottleneck(简称MBConv)模块,MobileNetV2开启了高效网络领域的新时代。与顺序排列全连接层的MBConv模块相比,EfficientMod模块将深度可分离卷积层分离出来,并通过逐元素乘法将其插入到两层全连接网络的中间。由于深度可分离卷积的通道数量减少,EfficientMod是一种更高效的操作,并且在性能上取得了更好的表现(由于调制操作)。

  • SENet

SENet通过提出通道注意力机制向ConvNets引入了动态特性,SE块可以表示为\(y = x\cdot \textrm{sig}\left(\textrm{W}\_2\left(\textrm{act}\left(\textrm{W}\_1x\right)\right)\right)\)。最近许多研究将其纳入,从而在理论上保持低复杂度的同时实现更好的准确性。然而,由于SE块中的零碎操作多,实际会显著降低GPU上的推理延迟。相反,EfficientMod模块通过\(y = \textrm{ctx}\left(x\right)\cdot \textrm{q}\left(x\right)\)连贯地进行通道注意力,其中\(\textrm{q}\left(x\right)\)自适应地调整了\(\textrm{ctx}\left(x\right)\)的通道权重。

Experiments


  对EfficientMod在四个任务上进行验证:在ImageNet-1K上进行图像分类, 在MS COCO上进行目标检测和实例分割,在ADE20K上进行语义分割。在PyTorch中实现了所有网络,并将其转换为ONNX模型在两种不同的硬件上进行测试:

  • GPU:选择P100 GPU进行延迟评估,因为它可以模拟近年来大多数设备的计算能力。其他GPU可能会产生不同的基准结果,但我们观察到趋势是类似的。
  • CPU:一些模型在不同类型的硬件上可能会产生不可预测的延迟(主要是由内存访问和零碎操作引起的),在Intel(R) Xeon(R) CPU E5-2680上的所有模型的测得延迟以进行全面比较。

  对于延迟基准测试,将批处理大小分别设置为1,以模拟真实世界的应用。为了抵消方差,对每个模型重复进行4000次运行,并报告平均推理时间。遵循常见的做法,使用四个线程同时测试。

Image Classification on ImageNet-1K

EfficientMod在不同硬件上的分类精度和推理延迟方面表现出色。例如,EfficientMod-sGPU上比EdgeViT表现相同,但运行速度快了15毫秒(约快73%),在CPU上快了11毫秒(约快32%)。此外,参数和计算复杂度也更少。EfficientMod-sGPU上也比EfficientFormerV2-S20.6提升,运行速度快了1.8毫秒(约快25%)。需要注意的是,一些高效设计(例如MobileNetV2FasterNet)注重低延迟,而其他模型则注重性能(例如MobileViTv2EdgeViT),而EfficientModGPUCPU上运行速度快且提供了最先进的性能。

  为了更好地了解EfficientMod的改进,我们以EfficientMod-s为例,概述了每个修改的具体改进。从纯卷积基础版本到混合模型,都显示在了表2中。即使EfficientMod的纯卷积基础版本已经以80.5%的显著结果,明显超过相关的基于卷积的网络。通过调整为混合架构,还可以进一步将性能提升至81.0%。

  同时,一些方法采用了强大的训练策略,比如MobileOne中的重新参数化和EfficientFormerV2中的蒸馏。经过蒸馏训练,可以将EfficientMod-s的精度从81.0%提升到81.9%,如表3所示。

Ablation Studies

  • Compare to other Modulation models

  将EfficientMod-xxs与具有相似参数数量的FocalNetVAN-B0进行比较。为了公平比较,通过减少通道或块数量的方式定制了FocalNet_Tiny_lrf。一共测试了三种变体,选择了性能最好的一个并将其称为FocalNet@4M。由于Conv2Former的代码尚未完全发布,在比较中没有考虑它。从表4可以看出,EfficientMod在精度和延迟方面均优于其他调制方法。

  • Ablation of each component

  在没有引入注意力和知识蒸馏的卷积EfficientMod-s上进行实验,检验每个组件所带来的贡献。表5显示了在上下文建模分支中消除每个组件的结果。显然,所有这些组件对最终的结果至关重要,引入所有组件后获得了80.5%top-1准确率。同时,还进行了一个实验来验证逐元素相乘的有效性,用求和来替代(相同的计算和相同的延迟)融合两个分支的特征。如预期一样,准确率下降了1%。显著的性能下降揭示了调制操作的有效性,特别是在高效网络中。

  • Connection to MBConv blocks

  为了验证EfficientMod块的优越性,与具有各向同性和分层结构的基础MBConv进行了比较。在几乎相同数量的参数和FLOPs的情况下,表6中的结果表明,EfficientModGPUCPU上均比MBConv快得多。最有可能的解释EfficientMod的深度可分离卷积比MBConv的要轻得多(分别是\(c\)和\(rc\)的通道数,其中\(r\)设置为6)。除了更快的推理速度,EfficientMod始终比MBConv块提供了更优越的实证结果。

  • Context Visualization

  继承自调制机制,EfficientMod块能够区分有信息量的上下文。在与FocalNet相似的基础上,在EfficientMod-Conv-s中可视化了上下文层的推理输出(沿通道维度计算均值),如图4所示。显然,EfficientMod始终捕捉到有信息量的对象,而背景受到了约束,这表明了调制机制在高效网络中的有效性。

Object Detection and Instance Segmentation on MS COCO

  为验证EfficientMod在下游任务中的性能,在MS COCO数据集上进行了目标检测和实例分割的实验。将EfficientMod-s应用到常用的Mask RCNN检测器上进行验证。遵循以往研究的实现,使用\(1\times\)调度器,即12epochs来训练模型。将卷积型和混合型EfficientMod-s与其他方法进行比较。如表7所示,EfficientMod始终优于具有相似参数的其他方法。在没有自注意力的情况下,EfficientMod在检测任务上比PoolFormer高出4.2mAP,在实例分割任务上高出3.6mAP。当引入注意力并与混合模型进行比较时,EfficientMod在两个任务上仍然优于其他方法。

Semantic Segmentation on ADE20K

  在ADE20K数据集上进行语义分割任务的实验。考虑简单高效的设计,选择Semantic FPN作为分割模型。遵循之前的研究,在8A100 GPU上进行了40,000次迭代训练,数据批次为32。使用AdamW优化器对模型进行训练,使用余弦退火调度器从初始值2e-4衰减学习率。

  表7中的结果表明,EfficientMod在性能上明显优于其他方法。在没有使用注意力的情况下,卷积型EfficientMod-smIoU已经比PoolFormer高出6.3个百分点。此外,纯卷积型EfficientMod甚至获得了比使用注意力方法更好的结果。在这方面,卷积型EfficientMod-s的性能比之前的SOTA高效方法EfficientFormerV2提升了1.1mIoU。当引入Transformer块以获得混合设计时,使用相同数量的参数甚至更少的FLOPs也能将性能进一步提升至46.0mIoU。混合型EfficientMod-s的性能显著优于其他混合网络,分别比PvTv2EfficientFormerV2高出3.53.6mIoU。可以得出两个结论:

  1. EfficientMod的设计取得了重大进步,证明了其价值和有效性。
  2. 大的感知域对于分割等高分辨率输入任务尤为有益,而基本的注意力块(实现全局范围)可以成为高效网络的现成模块。

如果本文对你有帮助,麻烦点个赞或在看呗~undefined更多内容请关注 微信公众号【晓飞的算法工程笔记】

标签:right,EfficientMod,卷积,2024,textrm,ICLR,调制,left
From: https://www.cnblogs.com/VincentLee/p/18366747

相关文章

  • RealNet:从数据生成到模型训练的最新工业异常检测 | CVPR 2024
    论文提出了一种创新的自监督异常检测框架RealNet,集成了三个核心组件:可控制强度的扩散异常合成(SDAS)、异常感知特征选择(AFS)和重构残差选择(RRS)。这些组件通过协同作用,使RealNet能够有效地利用大规模预训练模型来进行异常检测,同时保持计算开销在合理的低范围内。RealNet为未来利用预......
  • 2024年个人云服务器云主机最新选购攻略,哪个云服务器性价最比高
    在2024年,选择一款性价比高的云服务器对企业和开发者来说至关重要。今年的云服务器市场价格战分外激烈,几十块一年的比比皆是。选择合适的云服务器不仅需要考虑配置、服务商的技术实力,还要关注价格、全球覆盖和优惠活动。阿里云、腾讯云、京东云和UCloud都提供了高性价比的解决方案......
  • JetBrains DataSpell 2024.2 (macOS, Linux, Windows) - 专业数据科学家的 IDE
    JetBrainsDataSpell2024.2(macOS,Linux,Windows)-专业数据科学家的IDEJetBrains跨平台开发者工具请访问原文链接:https://sysin.org/blog/jetbrains-dataspell/,查看最新版。原创作品,转载请保留出处。作者主页:sysin.orgJetBrainsDataSpell-专业数据科学家的IDE......
  • 2024百度之星决赛部分题解(难度排序前六题)
    前言手速6题,可惜第四题磨了几个小时没磨出来,多做一题就金了,还是实力差了点,最后银牌前列。下面的题解是根据代码回忆大概的题意,主要是给出来赛时的参考代码A.状压题意:学校集训队总的有\(n\)个人,保证\(n\)是3的倍数,每个人有个人实力\(a_i\),每两个人之间有配合程度\(b_{i......
  • NOI2024 游记
    Day0报到。这是第一次参加NOI,有点紧张。CQ真的好热啊qaq教练飞机晚点,但是我的学籍证明在教练那。由于害怕教练来得太迟错过报名时间,就先去报到了,但是被告知没有学籍证明不能拿胸牌,没有胸牌不能进宿舍,于是坐在宿舍楼下等了\(\infty\)分钟。期间在宿舍到大门的坡道上来回......
  • 百度之星 2024 打铁记
    前言听说百度之星有铁牌发,我就来了。Day0坐了四小时高铁,又在北京市内坐了两小时地铁加公交车,终于到达九华宾馆。报道领了胸牌,还发了一副牌和一件衣服,还可以领取贴纸,比如“铁牌预定”“群/我=佬”“N^2过百万”。晚上练习赛,找了半天才知道网线怎么接,然后试了半天准考证号才......
  • 2024.8.18
    DATE#:20240818ITEM#:DOCWEEK#:SUNDAYDAIL#:捌月拾伍TAGS <BGM="pureimagination--Rook1e"><theme=oi-contest><[NULL]><[空]><[空]>```前天是小兔子,昨天是小鹿,今天是你。--Clannad```T1玩具时间限制:1s 内存限制:5......
  • 2024年Java面试题最新整理
    一、Java基础部分面试题1.Java面向对象的三个特征封装:对象只需要选择性的对外公开一些属性和行为。继承:子对象可以继承父对象的属性和行为,并且可以在其之上进行修改以适合更特殊的场景需求。多态:允许不同类的对象对同一消息做出响应。篇幅限制下面就只能给大家展示小册部分内容......
  • 第四届能源、动力与电气工程国际学术会议(EPEE 2024) 2024 4th International Conferenc
    文章目录一、会议详情二、重要信息三、大会简介四、嘉宾五、征稿主题六、咨询一、会议详情二、重要信息议官网:https://ais.cn/u/vEbMBz接受/拒稿通知:投稿后5天内会议收录检索:IEEEXplore,EI,Scopus三、大会简介随着前3届的成功举办(EPEE2021由东北电力大学主......
  • ANSYS2024.R2安装教程
    软件介绍ANSYS是一款融结构、流体、电场、磁场、声场分析于一体的大型通用有限元分析(FEA)软件,能与多数计算机辅助设计软件接口,实现数据的共享和交换,如Creo,NASTRAN、Algor、I-DEAS、AutoCAD等。软件下载https://pan.quark.cn/s/7527c0d7199d软件安装1、右键解压文件后进......