YOLOv11v10v8使用教程: YOLOv11入门到入土使用教程
YOLOv11改进汇总贴:YOLOv11及自研模型更新汇总
《DEA-Net: Single image dehazing based on detail-enhanced convolution and content-guided attention》
一、 模块介绍
论文链接:https://arxiv.org/pdf/2301.04805
代码链接:https://github.com/cecret3350/DEA-Net
论文速览:
单图像去雾是一个具有挑战性的难题,它需要从采集到的雾霾朦胧图像中得到增强的图像。一些现有的基于深度学习的方法致力于通过增加卷积的深度或宽度来提高模型性能。卷积神经网络 (CNN) 结构的学习能力仍未得到充分探索。该文提出了一种由细节增强卷积(DEConv)和内容引导注意力(CGA)组成的细节增强注意力块(DEAB),以促进特征学习,提高去雾性能。具体来说,DEConv 将先验信息集成到普通卷积层中,以增强表示和泛化能力。然后通过使用重新参数化技术,DEConv 等效地转换为没有额外参数和计算成本的普通卷积。通过为每个通道分配唯一的空间重要性地图 (SIM),CGA 可以获取要素中编码的更多有用信息。此外,提出了一种基于 CGA 的混合融合方案,以有效地融合特征并帮助梯度流。通过结合上述组件,我们提出了用于恢复高质量无雾图像的细节增强注意力网络 (DEA-Net)。
总结:DEAB是一种基于注意力的特征增强模块,可与下文模块融合。
⭐⭐本文二创模块仅更新于付费群中,往期免费教程可看下方链接⭐⭐
⭐⭐付费项目简介:融合上百种顶刊顶会模块的YOLO项目仅119(赠百种改进的v9),此外含自研模型与本文模块融合进行二创三创,最快1-2周完成小论文改进实验,代码每周更新(上周更新超20+二创模块),欢迎QQ:2668825911(或点击下方小卡片扫二维码)加我了解。⭐⭐
⭐⭐本项目并非简单的模块插入,平均每个文章对应4-6个二创或自研融合模块,有效果即可写论文或三创。本文项目使用ultralytics框架,兼容YOLOv3\5\6\8\9\10\world与RT-DETR。⭐⭐
已进群小伙伴可以先用下文二创及自研模块在自己的数据集上测试,有效果再进行模块结构分析或继续改进。
二、二创融合模块
2.1 相关二创模块及所需参数
该模块可如图加入到C2f、C3、C3K2与自研等模块中,代码见群文件,所需参数如下。
C2f-变式模块 所需参数:(c1, c2, n, shortcut, g, e)
C3-变式模块 所需参数:(c1, c2, n, shortcut, g, e)
C3k2-变式模块 所需参数:(c1, c2, n, c3k, e, g, shortcut)
RCRep2A及变式模块 所需参数:(c1, c2, shortcut, e)
2.2更改yaml文件 (以自研模型为例)
打开更改ultralytics/cfg/models/11路径下的YOLOv11.yaml文件,替换原有模块。
# Ultralytics YOLO
标签:layers,YOLOv11,parameters,yaml,GFLOPs,模块,DEA,Net,gradients
From: https://blog.csdn.net/StopAndGoyyy/article/details/143980845