首页 > 其他分享 >CAS-ViT:用于高效移动应用的卷积加法自注意力视觉Transformer

CAS-ViT:用于高效移动应用的卷积加法自注意力视觉Transformer

时间:2024-09-25 15:55:53浏览次数:12  
标签:Transformer CAS 复杂度 CATM 卷积 ViT 注意力


近年来,Vision Transformer(ViT)在计算机视觉领域取得了巨大突破。然而ViT模型通常计算复杂度高,难以在资源受限的移动设备上部署。为了解决这个问题,研究人员提出了Convolutional Additive Self-attention Vision Transformers (CAS-ViT),这是一种轻量级的ViT变体,旨在在效率和性能之间取得平衡。

这是8月份再arxiv上发布的新论文,我们下面一起来介绍这篇论文的重要贡献

核心创新:卷积加法token混合器(CATM)

CAS-ViT的核心创新在于提出了一种新颖的加法相似度函数,称为卷积加法token混合器(CATM)。与传统ViT中的多头自注意力机制相比,CATM大大降低了计算复杂度。

让我们来看看CATM与之前工作的对比:

CAS-ViT:用于高效移动应用的卷积加法自注意力视觉Transformer_transformer

  1. 传统ViT中的多头自注意力(图a):计算复杂度为O(N^2),其中N是序列长度。这在处理高分辨率图像时计算开销很大。
  2. MobileViTv2中的可分离自注意力(图b):将矩阵特征度量简化为向量,降低了复杂度。
  3. SwiftFormer中的swift自注意力(图c):将自注意力的键减少到两个(Q和K),进一步加速推理。
  4. 论文提出的卷积加法自注意力(图d):定义了一个新的相似度函数,将Q和K的上下文分数相加。

具体来说,CATM中的相似度函数定义为:

Sim(Q, K) = Φ(Q) + Φ(K)

其中Φ(·)是上下文映射函数,由基于Sigmoid的通道注意力C(·)和空间注意力S(·)具体化。CATM的输出为:

O = Γ(Φ(Q) + Φ(K)) · V

由于CATM中的操作都用卷积表示,其复杂度为O(N),大大低于传统自注意力的O(N^2)。

网络架构

CAS-ViT的整体架构如下:

CAS-ViT:用于高效移动应用的卷积加法自注意力视觉Transformer_transformer_02

主要特点包括:

  1. 4个编码阶段,每个阶段之间使用Patch Embedding进行2倍下采样。
  2. 每个阶段包含Ni个堆叠的块。
  3. 每个块包含三个部分:集成子网络、CATM和MLP,都使用残差连接。
  4. 集成子网络由3个使用ReLU激活的深度可分离卷积层组成。

通过调整通道数Ci和块数Ni,构建了一系列轻量级CAS-ViT模型。

实验结果

CAS-ViT在多个计算机视觉任务上进行了评估,包括图像分类、目标检测和语义分割。

图像分类

在ImageNet-1K数据集上的分类和计算量的对比如下:

CAS-ViT:用于高效移动应用的卷积加法自注意力视觉Transformer_transformer_03

可以看出,CAS-ViT模型(红色点)在精度和计算效率之间取得了很好的平衡。特别是XS和S变体,在参数量较少的情况下达到了很高的Top-1准确率。

目标检测和实例分割

在COCO val2017数据集上的目标检测和实例分割结果如下:

CAS-ViT:用于高效移动应用的卷积加法自注意力视觉Transformer_深度学习_04

CAS-ViT作为主干网络,在RetinaNet和Mask R-CNN框架下都取得了很好的性能,尤其是在计算效率方面具有优势。

语义分割

在ADE20K数据集上的语义分割结果如下:

CAS-ViT:用于高效移动应用的卷积加法自注意力视觉Transformer_注意力机制_05

CAS-ViT在mIoU和计算效率之间也达到了很好的平衡。

可视化分析

CAS-ViT:用于高效移动应用的卷积加法自注意力视觉Transformer_机器学习_06

热力图可视化显示,CAS-ViT能够准确定位关键区域,并获得更大的感受野,这有利于后续的密集预测任务。

消融实验

CAS-ViT:用于高效移动应用的卷积加法自注意力视觉Transformer_注意力机制_07

消融实验表明,CATM中的每个组件都对模型性能有重要贡献。当移除或替换某个组件时,准确率都会下降。

总结

CAS-ViT通过创新的卷积加法自注意力机制,在保持高性能的同时大大降低了计算复杂度。这使得它非常适合部署在资源受限的移动设备上,为高效移动视觉应用开辟了新的可能性。未来的工作可以探索在更大规模的数据集和模型上应用CAS-ViT,以及进一步优化其在移动设备上的部署效率。


标签:Transformer,CAS,复杂度,CATM,卷积,ViT,注意力
From: https://blog.51cto.com/deephub/12110157

相关文章

  • 好用!推荐一个开源加密库 Bouncy Castle
    BouncyCastle是一个广泛使用的开源加密库,它为Java平台提供了丰富的密码学算法实现,包括对称加密、非对称加密、哈希算法、数字签名等。这个库由于其广泛的算法支持和可靠性而备受信任,被许多安全应用和加密通信协议所采用。主要特点和功能包括:算法支持:BouncyCastle支持多种密码学......
  • TPAMI 2024 | SMART: 基于语法校准的多方面关系Transformer用于变化描述生成
    题目:SMART:Syntax-CalibratedMulti-AspectRelationTransformerforChangeCaptioningSMART:基于语法校准的多方面关系Transformer用于变化描述生成作者:YunbinTu;LiangLi;LiSu;Zheng-JunZha;QingmingHuang摘要变化描述生成旨在描述两幅相似图像之间的语......
  • 模型压缩:CNN和Transformer通用,修剪后精度几乎无损,速度提升40%
    前言随着目标检测的蓬勃发展,近年来提出了几种深度卷积神经网络模型,例如R-CNN、SSD和YOLO等。然而,随着网络变得越来越复杂,这些模型的规模不断增加,这使得在现实生活中将这些模型部署到嵌入式设备上变得越来越困难。因此,开发一种高效快速的物体检测模型以在不影响目标检测质量的情况下......
  • 套娃!双路+双向!TCN-Transformer+BiLSTM多变量时间序列预测(Matlab)
    套娃!双路+双向!TCN-Transformer+BiLSTM多变量时间序列预测(Matlab)目录套娃!双路+双向!TCN-Transformer+BiLSTM多变量时间序列预测(Matlab)效果一览基本介绍程序设计参考资料效果一览基本介绍1.Matlab实现双路+双向!TCN-Transformer+BiLSTM多变量时间序列预测(Mat......
  • Business Analytics Case Study
    BusinessAnalyticsCaseStudyCaseDescriptionThefinalbusinessanalyticscasestudyhas two components: a) data transformation with SSIS and b) predictive analysiswithRapidMiner.Bothtasksarebasedonindividualflight experiences from......
  • 在Activity中测量控件宽高的三种方式
    在进行Android开发时,有时需要测量控件的宽和高,常用的方式有以下三种:(1)重写onWindowFocusChanged(hasFocus:Boolean)方法,在这个方法内获取控件的宽高这个方法在Activity的窗口焦点发生变化时调用,具体可以分为窗口获得焦点时和窗口失去焦点时。Activity的焦点发生变化时,相关的......
  • 中秋献礼!2024年中科院一区极光优化算法+分解对比!VMD-PLO-Transformer-LSTM多变量时间
    中秋献礼!2024年中科院一区极光优化算法+分解对比!VMD-PLO-Transformer-LSTM多变量时间序列光伏功率预测目录中秋献礼!2024年中科院一区极光优化算法+分解对比!VMD-PLO-Transformer-LSTM多变量时间序列光伏功率预测效果一览基本介绍程序设计参考资料效果一览基本介绍1.中秋献礼!2024年......
  • 核心直达!特征提取+优化组合!LightGBM+BO-Transformer-BiLSTM多变量回归交通流量预测(Ma
    核心直达!特征提取+优化组合!LightGBM+BO-Transformer-BiLSTM多变量回归交通流量预测(Matlab)目录核心直达!特征提取+优化组合!LightGBM+BO-Transformer-BiLSTM多变量回归交通流量预测(Matlab)效果一览基本介绍程序设计参考资料效果一览基本介绍1.Matlab实现LightGBM+BO-Transformer-......
  • Vitepress 文档加微信网页授权登录功能
    目录前言​准备事项​实现步骤​1.建Vitepress文档项目​2.公众号配置网页授权域名​3.授权服务端开发​4.开发Vitepress登录组件​功能预览​前言​一般情况下使用Vitepress 写在线文档是用不上登录功能。如果想要实现权限控制、付费阅读等功能,不加个登录......
  • Transformer王者归来!无需修改任何模块,时序预测全面领先
    前言近年来,Transformer在自然语言处理以及计算机视觉任务中取得了不断突破,成为深度学习领域的基础模型。受此启发,众多Transformer模型变体在时间序列领域中被提出。然而,最近越来越多的研究发现,使用简单的基于线性层搭建的预测模型,就能取得比各类魔改Transformer更好的效果。最近,针......