首页 > 其他分享 >YOLO11涨点优化:原创自研 | 自研独家创新BSAM注意力 ,基于CBAM升级

YOLO11涨点优化:原创自研 | 自研独家创新BSAM注意力 ,基于CBAM升级

时间:2024-10-17 09:16:55浏览次数:3  
标签:涨点 自研 Spartial Attention YOLO11 BiLevel BSAM

 

标签:涨点,自研,Spartial,Attention,YOLO11,BiLevel,BSAM
From: https://blog.csdn.net/m0_63774211/article/details/142997466

相关文章

  • YOLO11有效改进专栏目录
    |试读篇|使用YOLO11训练自己的数据集【下载模型】-【导入数据集】-【训练模型】-【评估模型】-【导出模型】YOLO11关键改进与网络结构图YOLO11改进|注意力机制篇|添加GAM、CBAM、CA、ECA等注意力机制YOLO11改进|卷积篇|引入可变核卷积AKConv|注意力机制篇|YOLO11改进|注意......
  • YOLO11在训练和导出时的一些参数设置
    train时,imsz只能设置成1个整数。如果设置成数组,会提示:updatingto'imgsz=640'.'train'and'val'imgszmustbeaninteger,while'predict'and'export' 图像会以较长的边等比例缩放到指定的整数,然后较短的边的两侧填充114到指定的整数尺寸。即最终会是一个正方形,原图缩放......
  • YOLO11改进|注意力机制篇|引入Mamba注意力机制MLLAttention
    目录一、【MLLAttention】注意力机制1.1【MLLAttention】注意力介绍1.2【MLLAttention】核心代码二、添加【MLLAttention】注意力机制2.1STEP12.2STEP22.3STEP32.4STEP42.5STEP5三、yaml文件与运行3.1yaml文件3.2运行成功截图一、【MLLAttention】注意力机制1.1......
  • YOLOv9分割改进 ,YOLOv9分割改进主干网络为华为EfficientNet,助力涨点
    YOLOv9分割改进前训练结果:YOLOv9分割改进后训练结果:摘要卷积神经网络(ConvNets)通常在固定的资源预算下开发,然后在有更多资源时进行扩展以提高准确性。在本文中,我们系统地研究了模型扩展,并发现仔细平衡网络深度、宽度和分辨率可以带来更好的性能。基于这一观察,提出......
  • 探索Ultralytics YOLO11在视觉任务上的应用
    前言在人工智能持续发展的当下,有一点是确凿无疑的:模型正变得愈发优秀、快捷和智能。就在人们以为YOLO系列已登峰造极之时,Ultralytics推出了最新升级版——YOLO11。需要注意的是,这里不是YOLOv11,他们简化了命名方式,去掉了“v”。这一改变就如同YOLO既做了形象上的精简,又实现......
  • YOLO11改进|SPPF篇|引入FocalModulation特征金字塔
    目录一、【FocalModulation】特征金字塔1.1【FocalModulation】特征金字塔介绍1.2【FocalModulation】核心代码二、添加【FocalModulation】特征金字塔2.1STEP12.2STEP22.3STEP32.4STEP4三、yaml文件与运行3.1yaml文件3.2运行成功截图一、【FocalModulation】特......
  • YOLO11改进|注意力机制篇|引入DAT注意力机制
    目录一、【DAT】注意力机制1.1【DAT】注意力介绍1.2【DAT】核心代码二、添加【DAT】注意力机制2.1STEP12.2STEP22.3STEP32.4STEP4三、yaml文件与运行3.1yaml文件3.2运行成功截图一、【DAT】注意力机制1.1【DAT】注意力介绍下图是【DAT】的结构图,让我们简单分......
  • 基于YOLO11/v10/v8/v5深度学习的安检X光危险品检测与识别系统设计与实现【python源码+
    《博主简介》小伙伴们好,我是阿旭。专注于人工智能、AIGC、python、计算机视觉相关分享研究。✌更多学习资源,可关注公-仲-hao:【阿旭算法与机器学习】,共同学习交流~......
  • YOLO11实战:新颖的多尺度卷积注意力(MSCA)加在网络不同位置的涨点情况 | 创新点如何在自
    ......
  • RT-DETR改进|爆改模型|涨点|使用VMamba作为骨干网络(附代码+修改教程)
    一、文本介绍本文修改的模型是RT-DETR,在原本的RT-DETR中,使用ResNet作为骨干网络,本文使用最新的VMamba(VisualStateSpaceModel)替换ResNet作为RT-DETR的骨干网络。VMamba是一种全新的视觉框架,VMamba结合了CNNs和ViTs的优势,同时优化了计算效率,能够在保持全局感受野的情况下实......