首页 > 其他分享 >ViT(论文解读):An Image is worth 16*16 words

ViT(论文解读):An Image is worth 16*16 words

时间:2024-07-20 12:54:48浏览次数:18  
标签:768 16 Image Transformer patch token words CNN

研究问题

虽然transformer已经成为NLP领域的标准(BERT、GPT3、T5),但是在CV领域很有限。在CV中,自注意力要么和CNN一起用,要么替换CNN中某个组件后保持整体结构不变。本文证明了对CNN的这种依赖并不必要,在图像分类中,纯Vision Transformer直接作用于一系列图像块也可以取得不错的成果。尤其是当在大规模数据集上进行预训练再迁移到中小型数据集上效果类似于最好的CNN。Transformer的另外一个好处是需要更少的资源就能达到很好的效果。(此处资源少是和更耗卡的模型对比,这里指2500天TPUv3训练)

标题中提到一张图片等价于许多16*16的单词:本文方法将一张图片分割成许多patch,每个patch为16*16大小,所以这个图片就等价于许多16*16的patch的组合体。

摘要

虽然transformer已经成为NLP领域的标准(BERT、GPT3、T5),但是在CV领域很有限。在CV中,自注意力或者和CNN一起用,或者替换CNN中某个组件后保持整体结构不变。本文证明了对CNN的这种依赖并不必要,在图像分类中,纯Vision Transformer直接作用于一系列图像块也可以取得不错的成果。尤其是当在大规模数据集上进行预训练再迁移到中小型数据集上效果类似于最好的CNN。Transformer的另外一个好处是需要更少的资源就能达到很好的效果。(此处资源少是和更耗卡的模型对比,这里指2500天TPUv3训练)

一.Introduction

第一段:Transformer在NLP领域的应用。基于self-attention的模型架构,在NLP成为了必选架构。当前最主流的方式就是在大规模的数据集上进行预训练,再放到特定领域小规模的数据集上进行微调。鉴于transformer的高效性和可扩展性,可以训练1000亿参数,且并未出现性能饱和的现象。
第二段:将自注意力机制应用到计算机视觉相关工作。【将Transformer应用到CV中的困难:(Transformer在做注意力机制的时候是两两相互的,所以计算复杂度是序列长度的平方倍。)想要把Transformer应用到CV,首先就是需要把2d图片转换为一个集合(或序列),最简单的方法就是将每个像素点当成元素,这样导致计算复杂度非常高。所以在视觉领域,CNN仍然占据主导地位,比如RestNet和AlexNet。】Transformer应用到CV的相关工作,有两种方式,一种是CNN和自注意力机制一起混合使用,另一种是全部使用自注意力机制。两种方法都致力于降低序列长度。后提出孤立自注意力和轴自注意力,这些方法在理论上都很高效,但是在处理器上进行计算有难度。
第三段:本文受到了Transformer在NLP领域中可扩展的特性所启发,直接应用一个标准的Transformer作用于图片,尽量做少的修改。最后突出是在有监督的数据集上进行训练,突出原因是因为在NLP领域中基本都是使用无监督数据集进行训练,但是在CV中基本使用有监督的数据集。【Vision Transformer解决序列长度问题:将一张图片打成很多patch,每个Patch是16*16。假如图片大小为224*224,则sequence length(序列长度)就是N=224*224=50176,但是当使用patch时,一个patch就相当于一个元素,有效的长和宽就变成了224/16=14,最后的序列长度就是N=14*14=196。将每个patch当作一个元素,通过一个全连接层就会得到一个linear Embedding,再当作输入传给Transformer。这样一张图片就变成了很多图片块(类似于NLP中的单词),这就是题目中提到的一张图片就是多个16*16的单词的意思。】
这篇文章的主要目的就是Transformer在CV领域中扩展的有多好,就是在于超大数据集和超大模型的两方加持。
第四、五段:ViT和CNN效果比较:在中型的数据集上(ImageNet),如果不加较强的约束,则ViT的效果要比CNN要差一些。作者解释:Transformer跟CNN相比少了一些归纳偏置(一种先验知识或者提前做好的假设),一旦神经网络有了归纳偏置之后,就拥有了很多先验信息,所以只需要较少的数据就可以得到一个不错的模型。但是Transformer没有,就需要从数据中学习。为了验证解释,作者在更大的数据集上进行预训练,从而得到比CNN网络相近或更好的结果。
总结引言:第一段说明transformer在NLP领域表现很好,越大的数据集和模型就会有更好的表现,且没有饱和的现象,就会面临将transformer放入视觉中。第二段讲述前人工作(要么将自记忆力和CNN结合起来,要么用自注意力来取代CNN,从未直接将transformer直接放到视觉中),以及自己工作和前人工作的区别。第三段开始将本文将transformer直接应用到视觉中来,仅对图片做了预处理(把图片打成patch),完全将一个视觉问题转换为NLP问题。最后两段介绍结果,只要有足够的数据做预训练,vision transformer就可以取得很好的效果。

二.Related Work

第一段:Transformer在NLP领域的应用。一般来说,基于Transformer的大规模模型都是在大型语料库上进行预训练,再放到目标训练上进行微调。重点代表为BERT(类似于完形填空,把句子中一些词划掉,预测词)和GPT(language model,已有一个句子去预测一个词),这都是自监督的训练方式。
第二段:自注意力在视觉中的应用。(想要将transformer应用到CV中,第一个问题就是将图片这个二维数据转换为一个1d序列。)在视觉领域中想要使用自注意力,最简单的方式就是就是将每一个像素点当作一个元素,再两两做自注意力,考虑到计算复杂度的问题,就需要Transformer做近似。
(1)使用local neighbourhood(小窗口)来做自注意力,而不使用整张图片,就会使得序列大大减少,从而计算复杂度大大降低
(2)使用sparse transformer,只对稀疏的点做自注意力,成为全局注意力的近似
(3)将自注意力应用到大小不同的block上,在极端情况下使用轴注意力(先在横轴上做自注意力,再从纵轴上做注意力),大大降低了序列的长度。
这三种特制的注意力算法在计算机视觉上都有不错的效果,使得在CPU或GPU跑得快成为可能,但是需要复杂的工程去加速算子。
第三段:提出与本文最相似的一篇论文,区别之处在于ViT使用更大的patch和更大的数据集。
第四段:将CNN和自注意力结合的工作很多,其中包括目标检测、图像分类、视频处理和多模态等等。
第五段:Image GPT和本文也很相似。GPT是用于NLP中的生成性模型,image GPT也是生成性模型,与本文相似之处在于都使用了transformer。

三.Method

在模型设计上尽可能按照原始的Transformer来实现,这样做的好处是可以直接使用在NLP中比较高效的方法,可以直接使用。

A. 整体架构和前向传播

简单来说,模型由三个模块组成,分别为Embedding层(线性投射层,包含将图片打散为patch且转换成向量)、Transformer Encoder(使用标准的block)和MLP Head(用于最终分类的结构)。
前向传播过程:
(1)Patch Embedding:一张图片被分成n个patch,再把patch变成序列放入线性投射层得到Patch Embedding
(2)Position embedding:self-attention没有考虑输入的位置信息,不能对序列进行建模,但是图片的patch需要有顺序,引入Position Embedding实现对patch排序。
(3)Class token:相当于transformer中的cls,作为patch的全局输出。同时也有Position,位置信息永远是0。
(4)所有的token都在和其他的token做交互,class token的输出当做整个图片的特征,经过MLP Head(相当于一个分类头)得到分类结果。最后用交叉熵函数进行模型的训练。

B.图片预处理

标准的transformer模块输入要求是向量(或者token)序列,即二维矩阵[num_token, token_dim]。对于图像数据而言,其数据为[H, W, C]格式的三维矩阵,所以需要先通过一个Embedding层来对数据做变换。下面以ViT-B为例解释前向传播过程。
输入图片X的维度是224*224*3(3为RGB维度),每个patch大小为16*16,共有(224*224)/(16*16)=196个patch。每个patch的维度就是16*16*3=768。变成二维矩阵X[196(patch的个数),768(patch的维度)]。
接着使用线性映射E将每个patch映射成一维向量,这个线性映射就是全连接层,维度为768*768(前768为16*16*3得来,后768为文章中D,当模型变复杂,D可以变化)。
X*E = [196,768]*[768,768]=[196,768],从而得到patch embedding,表示有196个token,每个token的维度是768,此时已经完成将一个CV问题转化为NLP问题。
额外的cls token维度也是768,这样可以方便和后面图像的信息直接进行拼接。所以最后整体进入Transformer的序列的长度是197(196+1)*768。
Position Embedding是可以学习的,每一个向量代表一个位置信息(向量的维度是768),将这些位置信息加到所有的token中,序列还是197*768。

C.Transformer Encoder

Transformer Encoder就是将Transformer Block叠加L次,经过预处理后,输入变成了[197*768]的tensor数据。进入Layer Norm后维度不变,仍然是[197*768]。后进入多头注意力层,以ViT的base版本为例,使用12头,则每个头的q、k和v维度分别变成[197*64(768/12)],进行12组自注意力操作,最后再拼接起来,输出维度仍然是[197*768]。再经过一层layer norm,还是197*768。最后进入MLP Block,全连接+GELU激活函数+Dropout组成。把维度放大到4倍[197, 768] -> [197, 3072],再还原回原节点个数[197, 3072] -> [197, 768]。
进去Transformer block之前是197*768,出来还是197*768,这个序列的长度和每个token对应的维度大小都是一样的,所以就可以在一个Transformer block上不停地往上叠加Transformer block,最后有L层Transformer block的模型就构成了Transformer encoder。Transformer从头到尾都是使用D当作向量的长度的,都是768,同一个模型里这个维度是不变的。如果transformer变得更大了,D也可以相应的变得更大。

D.MLP Head和ViT-B/16模型结构图

对于分类,只需要提取[class]token生成的对应结果就行,即[197,768]中提取出[class]token对应的[1,768],通过MLP head得到最终的分类结果。MLP Head原论文中说再训练ImageNet21k时,是由Linear+tanh激活函数+Linear组成,但是迁移到ImageNet1k或者自己的数据集上时,只定义一个Linear即可。注意,在Transformer Encoder后还有一个Layer Norm。

3.1 vision Transformer
3.2 fine-tuning and higher resolution

四.消融实验

4.1  class token

对于Transformer来说,如果有一个Transformer模型,输入和输出都有n个元素,为什么不直接在n个输出上做全局平均池化得到最后一个特征,而是在最前面加一个class token,最后用class token的输出做分类?
要跟原始的Transformer尽可能保持一致,所以使用了class token(class token 在NLP的分类任务中也有用到,也是当作全局对句子的理解的特征)。本文的class token是将它当作一个图像的整体特征,将这个token的输出送入MLP(MLP中是用tanh当作非线性的激活函数来做分类的预测)。
之前视觉领域是不需要class token,以ResNet-50为例,在最后一个stage出来的是14*14的feature map,然后在这个feature map上其实做了全局平局池化(global average pooling),池化以后的特征已经拉直了,就已经是一个向量了,此时就可以把这个向量理解为一个全局的图片特征,然后再拿这恶鬼特征去做分类。

4.2 位置编码

位置编码涉及到三种消融实验,分别为1D(NLP和本文所使用的)、2D(类似与矩阵下标表示方法)和Relative position embedding(类似与图像块中的位置信息,不同图像块之间可以用绝对距离表示,也可以用相对距离表示,即文中的offset)。

五.Experiments实验部分

4.1 setup
4.2 comparison to state of the art
4.3 Pre-training data requirements
4.4 scaling study
4.5 inspection vision transformer
4.6 self-supervision

六.Conclusion

本文的工作是使用NLP领域标准的Transformer来解决CV的问题,与之前简单结合自注意力方法的区别在于:第一是对图像进行抽图像块,第二是位置编码使用了一些图像所特有的归纳偏置,除此之外没有其他的归纳偏置了。这样做的好处是就是将图像块当作NLP中的token,标准的Transformer就可以来解决CV问题了。该方法效果非常好且便宜。

展望:

(1)不能只做分类,还有检测和分割
后有DETR用于目标检测;ViT-FRCNN用于检测;SETR用于分割;
(2)探索自监督的预训练方法
(3)将ViT变的很大,可能会有很好的效果,Scaling Vision Transformer实现。

创新点

1.将Tansformer直接应用到CV中,只需要对输入图片做预处理(将图片打成patch),完全将一个CV问题转换为NLP问题。
2.ViT借鉴了BERT中的预训练方法(先在大规模的数据集上进行预训练,再放到具体任务的特定数据集上进行微调)和GPT中自注意力机制(与原来CNN相比,每个token都可以访问自身原来信息,能够更好的理解图像中的上下文信息)。
3.任务方面:ViT只做了分类,后续可以做检测、分割;改变结构方面:可以修改tokenization或者中间的transformer block;目标函数方面:监督训练和自监督训练的方式。
4.本文主要两个重点创新:(1)将图像打成patch(2)加入位置编码,提供图像所特有的归纳偏置

知识点补充

1.孤立自注意力:由于Transformer应用于CV有序列缩小的要求,在注意力机制时不适用整张图,而是使用local window(局部的小窗口),通过控制这个窗口的大小来使得计算序列在允许范围内。(类似与卷积)
2.轴自注意力:CV中计算复杂度高是由于序列N=H*W,是一个二维的矩阵,将这个二维矩阵拆分成两个一维向量,先后在高度、宽度的维度做一次self-attention,这样就是将一个二维矩阵的计算转换成了两个一维向量的运算,大大降低了计算复杂度。
3.CNN中的归纳偏置(inductive bias):可以理解为先验知识或者提前做好的假设。有两种,分别为locality和translation equivariance(平移等变性)。前者是指CNN是以滑动窗口的形式一点一点在图片上进行卷积的,假设图片上相邻区域会有相似的特征,靠的近相关性更强。后者用公式表示为f(g(x))=g(f(x)),表示进行f操作和g操作的顺序不会影响结果。
4.消融实验:是一种评估算法性能的方法。核心思想就是删除或修改系统中的特定部分,从而观察这些部分是如何影响系统的功能、性能或行为的。进而了解系统的关键要素,同时验证该部分对系统的重要程度。
5.在计算机领域,无监督训练和有监督训练的主要区别为是否使用已知的标签数据进行训练。有监督训练需要大量的标签数据,而无监督训练不需要。
6.分类头(classfication head)的作用:将模型的原始输入映射到具体的类别标签。在预训练阶段由带有一个隐藏层了MLP实现,在微调阶段由一个线性层实现。其具体实现就是将前一层或前多层的特征图转换为具体的类别标签,通常将每个类别的分数或者概率作为输出的。
7.BatchNorm和LayerNorm的作用和区别:两者都是归一化,加速收敛。前者是对同一feature的batchsize个样本减均值除方差,后者是对同一样本的所有feature进行该操作。

核心结论

1.是对图像进行抽图像块
2.位置编码使用了一些图像所特有的归纳偏置,除此之外没有其他的归纳偏置了。

标签:768,16,Image,Transformer,patch,token,words,CNN
From: https://blog.csdn.net/m0_54248968/article/details/140520131

相关文章

  • [rCore学习笔记 016]实现应用程序
    写在前面本随笔是非常菜的菜鸡写的。如有问题请及时提出。可以联系:[email protected]:https://github.com/WindDevil(目前啥也没有设计方法了解了特权级机制,实际上如果要设计一个应用程序就需要保证它符合U模式的要求,不要去访问S模式下的功能,那么其实现要点是:应......
  • CF1698 F
    CF1698F不错的题目。考虑必要条件,也就是不变量,发现操作不改变相邻二元组集合,且不能改变\(a_1,a_n\)。那么必要条件就是\(a,b\)相邻二元组集合相等和\(a_1=b_1,a_n=b_n\)。通过构造证明充分性。对于此类从\(a\)操作到\(b\)的问题,且操作可逆,不妨考虑中间状态\(c\),考虑......
  • MDS130-16-ASEMI整流模块MDS130-16
    编辑:llMDS130-16-ASEMI整流模块MDS130-16型号:MDS130-16品牌:ASEMI封装:MDS批号:2024+分类:整流模块特性:整流模块、整流桥平均正向整流电流(Id):130A最大反向击穿电压(VRM):1600V恢复时间:>2000ns结温:-40℃~150℃正向峰值电压:1.05V~1.25V引脚数量:5芯片个数:6芯片尺寸:MILMDS130-1......
  • Error: Assertion failed (nimages > 0) in cv::calibrateCameraRO, file D:\opencv4
    报错信息:Error:Assertionfailed(nimages>0)incv::calibrateCameraRO,fileD:\opencv4\opencv\opencv-4.1.0\modules\calib3d\src\calibration.cpp,line3691  原因:①图片路径问题,没有指向包含棋盘格的图片②图片中不包含棋盘格或者图片模糊等问题,导致查找棋盘......
  • LeetCode题练习与总结:比较版本号--165
    一、题目描述给你两个 版本号字符串 version1 和 version2 ,请你比较它们。版本号由被点 '.' 分开的修订号组成。修订号的值 是它 转换为整数 并忽略前导零。比较版本号时,请按 从左到右的顺序 依次比较它们的修订号。如果其中一个版本字符串的修订号较少,则将缺失......
  • SQL Prompt安装不上(报错:1603)
     一开始一直跟踪服务看到是RedGateClient运行不起来(报错信息代码是这个1603),后面查询到官网:https://productsupport.red-gate.com/hc/en-us/articles/360015772598-Redgate-Client-Service-fails-to-start使用管理员运行CMD执行:netshhttpaddiplisten127.0.0.1 之后再......
  • 【Software Defined Radio 】Zynq Ultrascale+ RFSoC --> 16 时分多路传输:正交频分多
    OFDM通过将宽带频率选择信道划分为几个并行子信道来解决这个问题。渠道。这些子通道中的每一个都足够窄,以确保它们单独体验“平坦”衰落“,这意味着子通道上的响应是恒定增益,或简单的线性响应。作为一个因此,可以使用非常简单的补偿响应来单独均衡子通道。使用分信道显著......
  • verilog实现ram16*8 (vivado)
    moduleram_16x2(inputclk,//时钟信号inputwe,//写使能inputen,//使能信号input[3:0]addr,//地址线input[1:0]datain,//输入数据线outputreg[1:0]dataout//输出数据线);//定义存储器数组......
  • 在 Ubantu上安装 FreePBX 16&Asterisk20
    在Ubantu上安装FreePBX16&Asterisk20注:必须以Root用户身份安装更新系统apt-getupdate&&apt-getupgrade-y安装SURY存储库签名密钥echo"debhttps://packages.sury.org/php/$(lsb_release-sc)main"|sudotee/etc/apt/sources.list.d/php7.x.listap......
  • day16-binary tree-part04-7.18
    tasksfortoday1.513找树左下角值2.112路径总和3.106从中序与后序遍历序列构造二叉树-------------------------------------------------------------------------------1.513找树左下角值ThispracticeissuitablefortheBFS(layertraverse),recordeach......