首页 > 其他分享 >大模型被偷家!腾讯港中文新研究修正认知:CNN搞多模态不弱于Transfromer

大模型被偷家!腾讯港中文新研究修正认知:CNN搞多模态不弱于Transfromer

时间:2023-12-29 13:13:33浏览次数:35  
标签:模态 Transformer 卷积 偷家 CNN UniRepLKNet 图像 Transfromer

前言 在Transformer占据多模态工具半壁江山的时代,大核CNN又“杀了回来”,成为了一匹新的黑马。腾讯AI实验室与港中文联合团队提出了一种新的CNN架构,图像识别精度和速度都超过了Transformer架构模型。切换到点云、音频、视频等其他模态,也无需改变模型结构,简单预处理即可接近甚至超越SOTA。

本文转载自量子位

仅用于学术分享,若侵权请联系删除

欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。

CV各大方向专栏与各个部署框架最全教程整理

【CV技术指南】CV全栈指导班、基础入门班、论文指导班 全面上线!!

论文题目:

UniRepLKNet: A Universal Perception Large-Kernel ConvNet for Audio, Video, Point Cloud, Time-Series and Image Recognition

论文链接:

https://arxiv.org/pdf/2311.15599.pdf

代码链接:

https://github.com/AILab-CVC/UniRepLKNet

团队提出了专门用于大核CNN架构设计的四条guideline和一种名为UniRepLKNet的强力backbone。

只要用ImageNet-22K对其进行预训练,精度和速度就都能成为SOTA——

ImageNet达到88%,COCO达到56.4 box AP,ADE20K达到55.6 mIoU,实际测速优势很大。

在时序预测的超大数据上使用UniRepLKNet,也能达到最佳水平——

例如在全球气温和风速预测上,它就超越了Nature子刊上基于Transformer的前SOTA。

更多细节,我们接着看作者投稿。

 

“Transformer时代”,为什么还需要CNN

在正式介绍UniRepLKNet的原理之前,作者首先解答了两个问题。

第一个问题是,为什么在Transformer大一统各个模态的时代还要研究CNN?

作者认为,Transformer和CNN只不过是相互交融的两种结构设计思路罢了,没有理由认为前者具有本质的优越性。

“Transformer大一统各个模态”正是研究团队试图修正的认知。

正如2022年初ConvNeXt、RepLKNet和另外一些工作问世之前,“Transformer在图像任务上吊打CNN”是主流认知。

这几项成果出现后,这一认知被修正为“CNN和Transformer在图像任务上差不多”。

本研究团队的成果将其进一步修正:在点云、音频、视频上,CNN比我们想象的强太多了。

在时序预测这种并不是CNN传统强项的领域(LSTM等曾是主流,最近两年Transformer越来越多),CNN都能超过Transformer,成功将其“偷家”。

因此,研究团队认为,CNN在大一统这一点上可能不弱于Transformer。

第二个问题是,如何将一个为图像任务设计的CNN用于音频、视频、点云、时序数据?

出于对简洁和通用性的永恒追求,将UniRepLKNet用于其他模态时,不对模型架构主体做任何改变(以下实验用的全都是UniRepLKNet-Small)。

只需要将视频、音频、点云、时序数据给处理成C×H×W的embedding map(对于图像来说,C=3),就能实现到其他模态的过渡,例如:

  • 把音频的频谱图(Time×Frequency)看成是一幅单通道图像,即C=1,H=T,W=F;
  • 将点云进行三视图投影,得到三幅单通道图像,C=3,H和W可以随意指定;
  • 将视频中的各帧拼接到一起,极为简单地得到一张大图(例如,16帧的3×224×224视频拼接得到3×896×896的输入);
  • 对时序数据,借鉴CorrFormer中的embedding layer将数据转换为隐空间中的张量然后简单粗暴地将其reshape成一幅单通道图像。

后文展示的结果将会证明,如此简单的设计产生的效果是极为优秀的。

 

大卷积核CNN架构设计

2022年,RepLKNet提出了用超大卷积核(从13×13到31×31)来构建现代CNN以及正确使用超大卷积核的几个设计原则。

但从架构层面看,RepLKNet只是简单地用了Swin Transformer的整体架构,并没有做什么改动。

当前大核CNN架构设计要么遵循现有的CNN设计原则,要么遵循现有的Transformer设计原则。

在传统的卷积网络架构设计中,当研究者向网络中添加一个3×3或5×5卷积层时,往往会期望它同时产生三个作用:

  • 增大感受野
  • 提高抽象层次,例如从线条到纹理、从纹理到物体的局部
  • 通过增加深度而一般地提高表征能力(越深,参数越多,非线性越多,拟合能力越高)

那么,设计大卷积核CNN架构时,应该遵循怎样的原则呢?

本文指出,应该解耦上述三种要素,需要什么效果就用对应的结构来实现:

  • 用少量大卷积核保证大感受野。
  • 用depthwise 3×3等小卷积提高特征抽象层次。
  • 用一些高效结构(如SE Block、Bottleneck structure等)来提高模型的深度从而增强其一般的表示能力。

这样的解耦之所以能够实现,正是大卷积核的本质优势所保证的,即不依赖深度堆叠的大感受野。

经过系统研究,本文提出了大卷积核CNN设计的四条Architectural Guidelines。

根据这些guideline,本文提出的UniRepLKNet模型结构如下——

每个block主要由depthwise conv、SE Block和FFN三个部分组成。

其中depthwise conv可以是大卷积核(图中所示的Dilated Reparam Block,其使用膨胀卷积来辅助大核卷积来捕捉稀疏的特征而且可以通过结构重参数化方法等价转换为一个卷积层),也可以只是depthwise 3x3。

 

 

多项表现超越Transformer

作为图像模态中的老三样,ImageNet、COCO、ADE20K上的结果自然是不能少。论文中最多只用ImageNet-22K预训练,没有用更大的数据。

虽然大核CNN本来不是很重视ImageNet(因为图像分类任务对表征能力和感受野的要求不高,发挥不出大kernel的潜力),但UniRepLKNet还是超过了最新的诸多模型,其实际测速的结果尤为喜人。

例如,UniRepLKNet-XL的ImageNet精度达到88%,而且实际速度是DeiT III-L的三倍。量级较小的UniRepLKNet相对于FastViT等专门设计的轻量级模型的优势也非常明显。

在COCO目标检测任务上,UniRepLKNet最强大的竞争者是InternImage:

UniRepLKNet-L在COCO上不及InternImage-L,但是UniRepLKnet-XL超过了InternImage-XL。

考虑到InternImage团队在目标检测领域的积淀非常深厚,这一效果也算很不容易了。

 

 

在ADE20K语义分割上,UniRepLKNet的优势相当显著,最高达到55.6的mIoU。与ConvNeXt-XL相比超出了整整1.6。

 

 

为了验证UniRepLKNet处理时序数据的能力,本文挑战了一个数据规模超大的《Nature》级别的任务:全球气温和风速预测。

尽管UniRepLKNet本来是为面向图像任务设计的,它却能超过为这个任务而设计的CorrFormer(前SOTA)。

 

 

这一发现尤为有趣,因为这种超大规模时间序列预测任务听起来更适合LSTM、GNN和Transformer,这次CNN却将其“偷家”了。

在音频、视频和点云任务上,本文的极简处理方法也都十分有效。

 

One More Thing

除了提出一种在图像上非常强力的backbone之外,本文所报告的这些发现似乎表明,大核CNN的潜力还没有得到完全开发。

即便在Transformer的理论强项——“大一统建模能力”上,大核CNN也比我们所想象的更为强大。

本文也报告了相关的证据:将kernel size从13减为11,这四个模态上的性能都发生了显著降低。

此外,作者已经放出了所有代码,并将所有模型和实验脚本开源。

 

欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。

计算机视觉入门1v3辅导班

【技术文档】《从零搭建pytorch模型教程》122页PDF下载

QQ交流群:470899183。群内有大佬负责解答大家的日常学习、科研、代码问题。

其它文章

分享一个CV知识库,上千篇文章、专栏,CV所有资料都在这了

明年毕业,还不知道怎么做毕设的请抓紧机会了

LSKA注意力 | 重新思考和设计大卷积核注意力,性能优于ConvNeXt、SWin、RepLKNet以及VAN

CVPR 2023 | TinyMIM:微软亚洲研究院用知识蒸馏改进小型ViT

ICCV2023|涨点神器!目标检测蒸馏学习新方法,浙大、海康威视等提出

ICCV 2023 Oral | 突破性图像融合与分割研究:全时多模态基准与多交互特征学习

听我说,Transformer它就是个支持向量机

HDRUNet | 深圳先进院董超团队提出带降噪与反量化功能的单帧HDR重建算法

南科大提出ORCTrack | 解决DeepSORT等跟踪方法的遮挡问题,即插即用真的很香

1800亿参数,世界顶级开源大模型Falcon官宣!碾压LLaMA 2,性能直逼GPT-4

SAM-Med2D:打破自然图像与医学图像的领域鸿沟,医疗版 SAM 开源了!

GhostSR|针对图像超分的特征冗余,华为诺亚&北大联合提出GhostSR

Meta推出像素级动作追踪模型,简易版在线可玩 | GitHub 1.4K星

CSUNet | 完美缝合Transformer和CNN,性能达到UNet家族的巅峰!

AI最全资料汇总 | 基础入门、技术前沿、工业应用、部署框架、实战教程学习

计算机视觉入门1v3辅导班

计算机视觉交流群

标签:模态,Transformer,卷积,偷家,CNN,UniRepLKNet,图像,Transfromer
From: https://www.cnblogs.com/wxkang/p/17934650.html

相关文章

  • 人工智能大模型原理与应用实战:从YOLO到Faster RCNN
    1.背景介绍人工智能(ArtificialIntelligence,AI)是一门研究如何让计算机自主地完成人类常见任务的学科。在过去的几年里,人工智能技术的发展取得了显著的进展,尤其是在深度学习(DeepLearning)领域。深度学习是一种通过神经网络模拟人类大脑工作原理的机器学习方法,它已经被广泛应用于图......
  • 人工智能大模型原理与应用实战:从UNet到Mask RCNN
    1.背景介绍人工智能(ArtificialIntelligence,AI)是一门研究如何让计算机自主地完成人类任务的学科。在过去的几十年里,人工智能主要关注于规则引擎和知识表示。然而,随着数据量的增加和计算能力的提高,深度学习(DeepLearning)成为人工智能领域的一个热门话题。深度学习是一种通过神经网......
  • RNN vs. CNN vs. 深度神经网络:比较与应用
    1.背景介绍深度学习是人工智能领域的一个热门话题,其中之一最为重要的技术就是神经网络。在过去的几年里,我们已经看到了许多不同类型的神经网络,如卷积神经网络(CNN)、循环神经网络(RNN)和深度神经网络(DNN)等。在这篇文章中,我们将讨论这三种神经网络的区别以及它们在不同应用中的优势。首......
  • 测试开发 | 卷积神经网络(CNN):图像识别的骨干
    卷积神经网络(ConvolutionalNeuralNetwork,简称CNN)是深度学习领域中一种专门用于图像处理和识别的神经网络结构。由于其出色的性能和高效的特征提取能力,CNN在计算机视觉、医学图像分析等领域取得了巨大成功。本文将深入介绍卷积神经网络的原理、结构和应用,探讨它在图像处理中的不可......
  • CNN 的图像生成与修复:创新思路与实践
    1.背景介绍图像生成和修复是计算机视觉领域的重要研究方向之一,它们在图像处理、图像增强、图像恢复、图像抗干扰等方面具有广泛的应用。随着深度学习技术的发展,卷积神经网络(CNN)成为图像生成和修复的主要方法之一。本文将介绍CNN的图像生成与修复的创新思路和实践,包括背景介绍、核......
  • ncnn的blob_vkallocator、workspace_vkallocator、staging_vkallocator区别
    ncnn::Extractor中有三个成员函数:voidset_blob_vkallocator(VkAllocator*allocator);voidset_workspace_vkallocator(VkAllocator*allocator);voidset_staging_vkallocator(VkAllocator*allocator);blob_vkallocator是一个用于blob数据的分配器,它可以为一些长期存储......
  • 深度学习的典型神经网络类型——卷积神经网络(CNN)
    1.CNN的定位CNN属于深度学习中的一类典型神经网络,是一种前馈神经网络,它采用的是SGD(随机梯度下降)算法,它的人工神经元可以相应一部分覆盖范围内的单元,在图像处理方面的表现十分出色。CNN在模式分类领域,因其避免了对图像的前期的预处理,所以它可以直接输入图像得到结果。2.CNN的构......
  • R-CNN作者Ross Girshick离职,何恺明、谢赛宁回归学界,Meta CV走出了多少大神
    FAIR又一位大佬级研究科学家「出走了」,这次是R-CNN作者RossGirshick。近日,Meta首席科学家YannLeCun发推宣布,RossGirshick将离开FAIR,加入艾伦人工智能研究所(AI2)。此前离职的还有 ResNeXt一作谢赛宁(加入纽约大学任助理教授)、GeorgiaGkioxari(加入Caltech任助理教授)等......
  • CircPCBL:用CNN-BiGRU-GLT模型鉴定植物circrna
    CircPCBL:IdentificationofPlantCircRNAswithaCNN-BiGRU-GLTModel报告人:王乐记录人:曹宇婕会议时间:2023-11-17会议地点:QQ会议关键词:作者:期刊:Plants-Basel年份:2023论文原文:https://doi.org/10.3390/plants12081652主要内容概要环状rna(circRNAs)是前mRNA剪接后产......
  • 机器学习中的典型算法——卷积神经网络(CNN)
    1.机器学习的定位AI,是我们当今这个时代的热门话题,那AI到底是啥?通过翻译可知:人工智能,而人工智能的四个核心要素:-数据-算法-算力-场景然后机器学习是人工智能的一部分,机器学习里面又有新的特例:深度学习。通俗来说机器学习即使用机器去学习一部分数据,然后去预测新的数据所属......