• 2024-07-26Transformer模块的相关代码实现/缝合模块/即插即用模块
    代码描述:数据生成:generate_data函数生成序列数据用于训练。注意力机制:定义了缩放点积注意力和多头注意力机制。前馈神经网络:定义了前馈神经网络层。编码器和解码器层:定义了编码器层和解码器层。编码器和解码器:定义了完整的编码器和解码器结构。Transformer模型:构建了完整的Tra
  • 2024-07-19【YOLOv5/v7改进系列】引入SAConv——即插即用的卷积块
    一、导言《DetectoRS:使用递归特征金字塔和可切换空洞卷积进行物体检测》这篇文章提出了一种用于物体检测的新方法,结合了递归特征金字塔(RecursiveFeaturePyramid,RFP)和可切换空洞卷积(SwitchableAtrousConvolution,SAC)。以下是对该研究的优缺点分析:优点:机制灵感来源于人
  • 2024-06-20Pointnet++改进即插即用系列:全网首发FastKAN|即插即用,提升特征提取模块性能
    简介:1.该教程提供大量的首发改进的方式,降低上手难度,多种结构改进,助力寻找创新点!2.本篇文章对Pointnet++特征提取模块进行改进,加入FastKAN,提升性能。3.专栏持续更新,紧随最新的研究内容。目录1.理论介绍2.修改步骤2.1步骤一     2.2步骤二     2.3步
  • 2024-04-10Pointnet++改进即插即用系列:全网首发iRMB反向残差移动块 |即插即用,提升特征提取模块性能
    简介:1.该教程提供大量的首发改进的方式,降低上手难度,多种结构改进,助力寻找创新点!2.本篇文章对Pointnet++特征提取模块进行改进,加入iRMB,提升性能。3.专栏持续更新,紧随最新的研究内容。目录1.理论介绍2.修改步骤2.1步骤一     2.2步骤二     2.3步骤三
  • 2024-04-09【即插即用】ShuffleAttention注意力机制(附源码)
    原文链接:https://arxiv.org/pdf/2102.00240.pdf源码地址:https://github.com/wofmanaf/SA-Ne摘要简介:注意力机制让神经网络能够准确关注输入的所有相关元素,已成为提高深度神经网络性能的关键组件。在计算机视觉研究中,主要有两种广泛使用的注意力机制:空间注意力和通道注意力
  • 2024-03-30【即插即用】SE通道注意力机制(附源码)
    原文地址:Squeeze-and-ExcitationNetworks源码地址:GitHub-hujie-frank/SENet:Squeeze-and-ExcitationNetworks摘要简介:卷积神经网络建立在卷积操作的基础上,它通过融合局部感受野内的空间信息和通道信息来提取有用的特征。近年来,为了提高网络的表示能力,多种方法显示出
  • 2024-03-29【即插即用】GnConv递归门控卷积(附源码)
    论文地址:https://arxiv.org/abs/2207.14284源码地址:https://github.com/raoyongming/HorNetGnConvGnConvHorNet摘要简介:最近,视觉Transformer在各种任务中取得了巨大成功,这主要得益于基于点积自注意力的新型空间建模机制。在本文中,我们发现视觉Transformer的关键要素,即输
  • 2024-03-18【即插即用】RefConv-重聚焦卷积模块(附源码)
    论文地址: http://arxiv.org/pdf/2310.10563.pdf源码地址:GitHub-Aiolus-X/RefConv概述:作者提出了一种可重参数化的重新聚焦卷积(RefConv),作为常规卷积层的即插即用替代品,能够在不引入额外推理成本的情况下显著提高基于CNN的模型性能。RefConv利用预训练参数编码的表示作为先
  • 2024-03-18【即插即用】ELA注意力机制(附源码)
    原文地址:[2403.01123]ELA:EfficientLocalAttentionforDeepConvolutionalNeuralNetworks(arxiv.org)与SE、CA注意力机制的区别:ELA通过在空间维度采用带状池化来提取水平和垂直方向的特征向量,维持细长的核形状以捕捉远距离的依赖关系,同时避免不相关区域对标签预测的