一、本文介绍
作为入门性篇章,这里介绍了SK网络注意力在YOLOv8中的使用。包含SK原理分析,SK的代码、SK的使用方法、以及添加以后的yaml文件及运行记录。
二、SK原理分析
SK官方论文地址:SK注意力文章
SK注意力机制:SK网络中的神经元可以捕获具有不同比例的目标对象,实验验证了神经元根据输入自适应地调整其感受野大小的能力。其SK模块的原理结构如下图所示。该方法由三个部分组成:Split,Fuse,Select。
Split就是一个multi-branch的操作,用不同的卷积核进行卷积得到不同的特征;
Fuse部分就是用SE的结构获取通道注意力的矩阵(N个卷积核就可以得到N个注意力矩阵,这步操作对所有的特征参数共享),这样就可以得到不同kernel经过SE之后的特征;
Select操作就是将这几个特征进行相加。
相关代码:
SK注意力的代码,如下。
from torch.nn import init
from collections import OrderedDict
class SKAttention(nn.Module):
def __init__(self, channel=512, kernels=[1, 3, 5, 7], reduction=16, group=1, L=32):
super().__init__()
self.d = max(L, channel // reduction)
self.convs = nn.ModuleList([])
for k in kernels:
self.convs.append(
nn.Sequential(OrderedDict([
('conv', nn.Conv2d(channel, channel, kernel_size=k, padding=k // 2, groups=group)),
('bn', nn.BatchNorm2d(channel)),
('relu', nn.ReLU())
]))
)
self.fc = nn.Linear(channel, self.d)
self.fcs = nn.ModuleList([])
for i in range(len(kernels)):
self.fcs.append(nn.Linear(self.d, channel))
self.softmax = nn.Softmax(dim=0)
def forward(self, x):
bs, c, _, _ = x.size()
conv_outs = []
### split
for conv in self.convs:
conv_outs.append(conv(x))
feats = torch.stack(conv_outs, 0) # k,bs,channel,h,w
### fuse
U = sum(conv_outs) # bs,c,h,w
### reduction channel
S = U.mean(-1).mean(-1) # bs,c
Z = self.fc(S) # bs,d
### calculate attention weight
weights = []
for fc in self.fcs:
weight = fc(Z)
weights.append(weight.view(bs, c, 1, 1)) # bs,channel
attention_weughts = torch.stack(weights, 0) # k,bs,channel,1,1
attention_weughts = self.softmax(attention_weughts) # k,bs,channel,1,1
### fuse
V = (attention_weughts * feats).sum(0)
return V
四、YOLOv8中SK使用方法
1.YOLOv8中添加SK模块,首先在ultralytics/nn/modules/conv.py最后添加SK模块的代码。
2.在conv.py的开头__all__ = 内添加SK模块的类别名(SK的类别名在本文中为SKAttention)
3.在同级文件夹下的__init__.py内添加SKAttention的相关内容:(分别是from .conv import SKAttention ;以及在__all__内添加SKAttention)
4.在ultralytics/nn/tasks.py进行SK注意力机制的注册,以及在YOLOv8的yaml配置文件中添加SK即可。
首先打开task.py文件,按住Ctrl+F,输入parse_model进行搜索。找到parse_model函数。在其最后一个else前面添加以下注册代码:(本文续接上篇文章,加在了CBAM、ECA的位置)
elif m in {CBAM,ECA,SKAttention}:#添加注意力模块,没有CBAM、ECA的,将CBAM、ECA删除即可
c1, c2 = ch[f], args[0]
if c2 != nc:
c2 = make_divisible(min(c2, max_channels) * width, 8)
args = [c1, *args[1:]]
然后,就是新建一个名为YOLOv8_SK.yaml的配置文件:(路径:ultralytics/cfg/models/v8/YOLOv8_SK.yaml)
# Ultralytics YOLO
标签:conv,nn,self,YOLOv8,SK,注意力,channel
From: https://blog.csdn.net/2301_79619145/article/details/142579786