1. EPAAttention介绍
EPAAttention注意力机制综合了EMAttention和ParNetAttention的优势,能够更有效地提取图像特征。
(1). 综合性与多样性
EPAAttention结合了两种不同的注意力机制,充分利用了EMAttention的分组归一化和特征增强能力,以及ParNetAttention的空间注意力和全局特征提取能力。通过这种多样化的组合,EPAAttention能够更全面地捕捉图像中的各种特征。
(2). 加权融合机制
EPAAttention引入了加权融合机制,通过可训练的权重参数(weight_em和weight_parnet)动态调整EMAttention和ParNetAttention在输出结果中的贡献比例。这样的设计使得EPAAttention可以根据不同图像或不同特征的需求,自适应地调整注意力机制的权重,从而更精准地提取图像特征。
(3). 细粒度特征提取
EMAttention通过分组归一化(GroupNorm)和卷积操作(Conv1x1和Conv3x3)在局部区域内进行特征提取和增强,能够有效地捕捉图像中的细粒度特征。而ParNetAttention则通过空间注意力机制(SSE)和全局卷积操作(Conv1x1和Conv3x3),在更大范围内进行特征提取和融合。这两者的结合使得EPAAttention能够在不同尺度上进行细粒度特征提取,提升了整体特征提取的精度和鲁棒性。
(4). 自适应特征增强
EMAttention中的特征增强机制(x_h和x_w的sigmoid操作)和ParNetA