首页 > 其他分享 >【YOLOv8改进 - 注意力机制】NAM:基于归一化的注意力模块,将权重稀疏惩罚应用于注意力机制中,提高效率性能

【YOLOv8改进 - 注意力机制】NAM:基于归一化的注意力模块,将权重稀疏惩罚应用于注意力机制中,提高效率性能

时间:2024-06-30 21:58:03浏览次数:1  
标签:特征 self NAM 模块 归一化 机制 注意力

YOLO目标检测创新改进与实战案例专栏

专栏目录: YOLO有效改进系列及项目实战目录 包含卷积,主干 注意力,检测头等创新机制 以及 各种目标检测分割项目实战案例

专栏链接: YOLO基础解析+创新改进+实战案例

摘要

识别较不显著的特征是模型压缩的关键。然而,这在革命性的注意力机制中尚未被研究。在这项工作中,我们提出了一种新颖的基于归一化的注意力模块(NAM),该模块抑制了较不显著的权重。它对注意力模块施加了权重稀疏惩罚,从而使其在保留相似性能的同时变得更具计算效率。在Resnet和Mobilenet上与其他三种注意力机制的比较表明,我们的方法可以带来更高的准确性。本文的代码可以在https://github.com/Christian-lyc/NAM公开获取。

文章链接

论文地址:论文地址

代码地址:代码地址

基本原理

NAM (Normalization-based Attention Module)是一种新颖的注意力机制,旨在通过抑制不太显著的特征来提高模型的效率。NAM模块将权重稀疏惩罚应用于注意力机制中,以提高计算效率同时保持性能。NAM模块通过批量归一化(Batch Normalization)的缩放因子来衡量通道的重要性,避免了SE(Squeeze-and-Excitation)、BAM(Bottleneck Attention Module)和CBAM(Convolutional Block Attention Module)中使用的全连接和卷积层。这使得NAM成为一种高效的注意力机制。

NAM模块结合了通道注意力和空间注意力的子模块,利用批量归一化的缩放因子来衡量通道和像素的重要性,从而实现对特征的有效识别和利用。

  1. 通道注意力子模块:使用批量归一化的缩放因子来衡量通道的重要性,通过计算权重来获得输出特征。

image-20240630171918385

  1. 空间注意力子模块:应用像素归一化来衡量像素的重要性,得到输出特征。

    image-20240630171931703

  2. 权重稀疏惩罚:NAM模块通过添加正则化项到损失函数中,以抑制不太显著的权重,从而提高模型的泛化能力和效率。

数学公式:
NAM模块的损失函数如下所示:
$$
Loss = ∑(x,y) l(f(x, W), y) + p ∑ g(γ) + p ∑ g(λ)
$$

其中:

  • x:输入
  • y:输出
  • W:网络权重
  • l(·):损失函数
  • g(·):l1范数惩罚函数
  • p:平衡g(γ)和g(λ)的惩罚参数

通道注意力子模块的输出特征:
$$
M_c = sigmoid(W_γ(BN(F_1)))
$$

空间注意力子模块的输出特征(Equation 3):
$$
M_s = sigmoid(W_λ(BN_s(F_2)))
$$

其中:

  • M_c:通道注意力子模块的输出特征
  • M_s:空间注意力子模块的输出特征
  • W_γ:通道注意力子模块的权重
  • W_λ:空间注意力子模块的权重
  • BN:批量归一化
  • F_1、F_2:输入特征

核心代码

import torch.nn as nn
import torch
from torch.nn import functional as F

# 定义通道注意力模块
class Channel_Att(nn.Module):
    def __init__(self, channels, t=16):
        super(Channel_Att, self).__init__()
        self.channels = channels  # 输入的通道数
      
        # 定义批量归一化层
        self.bn2 = nn.BatchNorm2d(self.channels, affine=True)

    def forward(self, x):
        residual = x  # 保存输入特征图以便后续相乘

        x = self.bn2(x)  # 对输入特征图进行批量归一化处理

        # 获取批量归一化层的权重,并进行绝对值处理和归一化
        weight_bn = self.bn2.weight.data.abs() / torch.sum(self.bn2.weight.data.abs())
        
        # 调整特征图的维度顺序,从[N, C, H, W]变为[N, H, W, C]
        x = x.permute(0, 2, 3, 1).contiguous()
        
        # 将归一化后的权重与调整维度后的特征图相乘
        x = torch.mul(weight_bn, x)
        
        # 再将特征图的维度顺序调整回[N, C, H, W]
        x = x.permute(0, 3, 1, 2).contiguous()
        
        # 对特征图进行Sigmoid激活,并与残差相乘
        x = torch.sigmoid(x) * residual
        
        return x  # 返回处理后的特征图

# 定义注意力模块
class Att(nn.Module):
    def __init__(self, channels, shape, out_channels=None, no_spatial=True):
        super(Att, self).__init__()
        # 实例化通道注意力模块
        self.Channel_Att = Channel_Att(channels)
  
    def forward(self, x):
        # 将输入特征图通过通道注意力模块
        x_out1 = self.Channel_Att(x)
 
        return x_out1  # 返回通道注意力处理后的特征图

task与yaml配置

详见:https://blog.csdn.net/shangyanaf/article/details/140083725

标签:特征,self,NAM,模块,归一化,机制,注意力
From: https://www.cnblogs.com/banxia-frontend/p/18277026

相关文章

  • C++ : 如何用C语言实现C++的虚函数机制?
    前言在 googletest的源码中,看到gtest-matchers.h中实现的MatcherBase 类自定义了一个VTable,这种设计实现了一种类似于C++虚函数的机制。C++中的虚函数机制实质上就是通过这种方式实现的,本文用c语言自定义虚函数表VTable实现了一下virtual的功能,来深刻理解其机制。我们通过创......
  • 【Python】 模型训练数据归一化的原理
    那年夏天我和你躲在这一大片宁静的海直到后来我们都还在对这个世界充满期待今年冬天你已经不在我的心空出了一块很高兴遇见你让我终究明白回忆比真实精彩                     ......
  • 异常机制
    异常机制1.什么是异常实际工作中,遇到的情况不可能是非常完美的。比如:你写的某个模块,用户输入不一定符合你的要求、你的程要打开某个文件,这个文件可能不存在或者文件格式不对,你要读取数据数据可能是空的等。我们的程序再跑着,内存或硬盘可能满了。等等。软件程序在运行过程中,非......
  • 秒懂双亲委派机制
    前言最近知识星球中,有位小伙伴问了我一个问题:JDBC为什么会破坏双亲委派机制?这个问题挺有代表性的。双亲委派机制是Java中非常重要的类加载机制,它保证了类加载的完整性和安全性,避免了类的重复加载。这篇文章就跟大家一起聊聊,Java中类加载的双亲委派机制到底是怎么回事,有哪些破......
  • Dubbo源码解析-熔灾机制
    上篇我们介绍了消费端负载均衡的原理Dubbo源码解析-负载均衡-CSDN博客    因为篇幅问题,本文主单独Dubbo消费端负载均原理,从dubbo源码角度进行解析。    大家可以好好仔细读一下本文。有疑问欢迎留言。    接着说明,读Dubbo源码最好是先对Spring源......
  • 域渗透学习(一)Windows认证机制
    windows认证机制何谓域渗透,域渗透就是基于windows域环境的渗透,而域渗透涉及到的技术,如哈希传递(PTH)票抵传递(PTT)委派攻击等,都是基于域环境下的认证机制来实现的,这也是为什么要了解windows认证机制的原因之一。windows的认证包括三个部分,用户直接操作计算机登录账号(本地认证),远程连......
  • 【内存管理】页面分配机制
    前言Linux内核中是如何分配出页面的,如果我们站在CPU的角度去看这个问题,CPU能分配出来的页面是以物理页面为单位的。也就是我们计算机中常讲的分页机制。本文就看下Linux内核是如何管理,释放和分配这些物理页面的。伙伴算法伙伴系统的定义大家都知道,Linux内核的页面分配器的基本......
  • YoloV8改进策略:注意力篇|自研基于xLSTM的注意力(全网首发)
    文章目录摘要论文:《Vision-LSTM:xLSTM作为通用视觉主干》1、引言2、方法3、实验3.1分类设计4、结论致谢A.扩展结果A.1ViL与Vim的运行时间比较A.2更长训练时间的影响B.实现细节B.1硬件B.2FLOPS计算B.3ViL超参数B.4、DeiT-III重新实现的超参数测试结果......
  • 移动应用开发-第8章广播机制
    广播是一种运用在组件之间传递消息的机制。如果要接收并过滤广播中的信息,则需要使用BroadcastRecciver(广播接收者)。8.1广播机制的概述Android中的广播机制更加灵活,因为Android中每个应用程序都可以根据自己的需要对广播进行注册,所以该程序只会接收自己关注的广播内容,这些广播......
  • 编码器的稀疏注意力块(ProbSparse Self-Attention Block)
    编码器的稀疏注意力块(ProbSparseSelf-AttentionBlock)详细解释1.概述稀疏注意力块是Informer模型的核心组件之一,旨在高效处理长时间序列数据。它通过稀疏自注意力机制(ProbSparseSelf-Attention)显著降低计算复杂度,同时保持较高的性能。2.主要组件稀疏注意力块由以下......