• 2024-11-12芒果YOLO11改进90:检测头篇之ShareSepHead:即插即用|原创新颖共享Sep检测头,更省参数量,更高效,打造新型YOLOv8检测器,精度高效涨点
  • 2024-10-31小波下采样,即插即用
    论文:Haarwaveletdownsampling:AsimplebuteffectivedownsamplingmoduleGitHub地址:https://github.com/apple1986/HWD论文地址:                    https://www.sciencedirect.com/science/article/pii/S0031320323005174 
  • 2024-09-03PlugIR:开源还不用微调,首尔大学提出即插即用的多轮对话图文检索 | ACL 2024
    即插即用的PlugIR通过LLM提问者和用户之间的对话逐步改进文本查询以进行图像检索,然后利用LLM将对话转换为检索模型更易理解的格式(一句话)。首先,通过重新构造对话形式上下文消除了在现有视觉对话数据上微调检索模型的必要性,从而使任意黑盒模型都可以使用。其次,构建了LLM问答者根据
  • 2024-07-26Transformer模块的相关代码实现/缝合模块/即插即用模块
    代码描述:数据生成:generate_data函数生成序列数据用于训练。注意力机制:定义了缩放点积注意力和多头注意力机制。前馈神经网络:定义了前馈神经网络层。编码器和解码器层:定义了编码器层和解码器层。编码器和解码器:定义了完整的编码器和解码器结构。Transformer模型:构建了完整的Tra
  • 2024-07-19【YOLOv5/v7改进系列】引入SAConv——即插即用的卷积块
    一、导言《DetectoRS:使用递归特征金字塔和可切换空洞卷积进行物体检测》这篇文章提出了一种用于物体检测的新方法,结合了递归特征金字塔(RecursiveFeaturePyramid,RFP)和可切换空洞卷积(SwitchableAtrousConvolution,SAC)。以下是对该研究的优缺点分析:优点:机制灵感来源于人
  • 2024-06-20Pointnet++改进即插即用系列:全网首发FastKAN|即插即用,提升特征提取模块性能
    简介:1.该教程提供大量的首发改进的方式,降低上手难度,多种结构改进,助力寻找创新点!2.本篇文章对Pointnet++特征提取模块进行改进,加入FastKAN,提升性能。3.专栏持续更新,紧随最新的研究内容。目录1.理论介绍2.修改步骤2.1步骤一     2.2步骤二     2.3步
  • 2024-04-10Pointnet++改进即插即用系列:全网首发iRMB反向残差移动块 |即插即用,提升特征提取模块性能
    简介:1.该教程提供大量的首发改进的方式,降低上手难度,多种结构改进,助力寻找创新点!2.本篇文章对Pointnet++特征提取模块进行改进,加入iRMB,提升性能。3.专栏持续更新,紧随最新的研究内容。目录1.理论介绍2.修改步骤2.1步骤一     2.2步骤二     2.3步骤三
  • 2024-04-09【即插即用】ShuffleAttention注意力机制(附源码)
    原文链接:https://arxiv.org/pdf/2102.00240.pdf源码地址:https://github.com/wofmanaf/SA-Ne摘要简介:注意力机制让神经网络能够准确关注输入的所有相关元素,已成为提高深度神经网络性能的关键组件。在计算机视觉研究中,主要有两种广泛使用的注意力机制:空间注意力和通道注意力
  • 2024-03-30【即插即用】SE通道注意力机制(附源码)
    原文地址:Squeeze-and-ExcitationNetworks源码地址:GitHub-hujie-frank/SENet:Squeeze-and-ExcitationNetworks摘要简介:卷积神经网络建立在卷积操作的基础上,它通过融合局部感受野内的空间信息和通道信息来提取有用的特征。近年来,为了提高网络的表示能力,多种方法显示出
  • 2024-03-29【即插即用】GnConv递归门控卷积(附源码)
    论文地址:https://arxiv.org/abs/2207.14284源码地址:https://github.com/raoyongming/HorNetGnConvGnConvHorNet摘要简介:最近,视觉Transformer在各种任务中取得了巨大成功,这主要得益于基于点积自注意力的新型空间建模机制。在本文中,我们发现视觉Transformer的关键要素,即输
  • 2024-03-18【即插即用】RefConv-重聚焦卷积模块(附源码)
    论文地址: http://arxiv.org/pdf/2310.10563.pdf源码地址:GitHub-Aiolus-X/RefConv概述:作者提出了一种可重参数化的重新聚焦卷积(RefConv),作为常规卷积层的即插即用替代品,能够在不引入额外推理成本的情况下显著提高基于CNN的模型性能。RefConv利用预训练参数编码的表示作为先
  • 2024-03-18【即插即用】ELA注意力机制(附源码)
    原文地址:[2403.01123]ELA:EfficientLocalAttentionforDeepConvolutionalNeuralNetworks(arxiv.org)与SE、CA注意力机制的区别:ELA通过在空间维度采用带状池化来提取水平和垂直方向的特征向量,维持细长的核形状以捕捉远距离的依赖关系,同时避免不相关区域对标签预测的