首页 > 数据库 >助力智慧交通,基于YOLO家族最新端到端实时目标检测算法YOLOv10全系列【n/s/m/b/l/x】参数模型开发构建道路交通场景下CCTSDB2021交通标识检测识别系统

助力智慧交通,基于YOLO家族最新端到端实时目标检测算法YOLOv10全系列【n/s/m/b/l/x】参数模型开发构建道路交通场景下CCTSDB2021交通标识检测识别系统

时间:2024-07-16 09:54:35浏览次数:15  
标签:1024 P4 阈值 检测 模型 YOLO 512 True 端到

交通标志检测是交通标志识别系统中的一项重要任务。与其他国家的交通标志相比,中国的交通标志有其独特的特点。卷积神经网络(CNN)在计算机视觉任务中取得了突破性进展,在交通标志分类方面取得了巨大的成功。CCTSDB 数据集是由长沙理工大学的相关学者及团队制作而成的,其有交通标志样本图片有近 20000 张,共含交通标志近 40000 个,但目前只公开了其中的 10000 张图片,标注了常见的指示标志、禁令标志及警告标志三大类交通标志。随着时间的更迭有了不同的版本数据集,在前面系列博文中,我们已经进行了一系列相关的开发实践,感兴趣的话可以自行移步阅读即可:

基于YOLOv3开发构建道路交通场景下CCTSDB2021交通标识检测识别系统》

《基于YOLOv4开发构建道路交通场景下CCTSDB2021交通标识检测识别系统》

《基于YOLOv5全系列参数模型【n/s/m/l/x】开发构建道路交通场景下CCTSDB2021交通标识检测识别系统》

《基于YOLOv6开发构建道路交通场景下CCTSDB2021交通标识检测识别系统》

《基于YOLOv7开发构建道路交通场景下CCTSDB2021交通标识检测识别系统》

《基于YOLOv8全系列【n/s/m/l/x】开发构建道路交通场景下CCTSDB2021交通标识检测识别系统》

《助力智慧交通,基于YOLOv9全系列【yolov9/t/s/m/c/e】+GELAN全系列【gelan/t/s/m/c/e】参数模型开发构建道路交通场景下CCTSDB2021交通标识检测识别系统》

本文的主要目的就是想要基于YOLO系列最新发布的端到端实时检测模型YOLOv10来开发构建CCTSDB2021数据集上的目标检测识别系统,首先看下实例效果:

简单看下实例数据:

官方发表了对于最新研究成果YOLOv10的论文,前面我做了简单的翻译阅读,感兴趣的话可以看下,有需要的话可以阅读官方英文论文即可:

《卷出新高度,直呼太强!时隔三月,YOLO再度进化升级:《YOLOv10—实时端到端目标检测》重磅来袭》

如果想要基于最新发表的YOLOv10从零开始开发构建自己的个性化目标检测系统,可以参照这里:

《基于最新发表的端到端实时目标检测模型YOLOv10开发构建自己的个性化目标检测系统从零构建模型完整训练、推理计算超详细教程【以自建数据远红外场景下的低空无人机目标检测为例】》

在过去的几年里,YOLOs由于其在计算成本和检测性能之间的有效平衡,已成为实时目标检测领域的主导范式。研究人员探索了YOLO的架构设计、优化目标、数据扩充策略等,取得了显著进展。然而,依赖非极大值抑制(NMS)进行后处理阻碍了YOLO的端到端部署,并对推理延迟产生不利影响。此外,YOLOs中各种组件的设计缺乏全面彻底的检查,导致明显的计算冗余,限制了模型的能力。它提供了次优的效率,以及相当大的性能改进潜力。YOLOv10致力于打造实时端到端的高性能目标检测器,从效率和精度两个角度对YOLO的各个组件进行了全面优化,大大减少了计算开销,增强能力,目标是从后处理和模型架构两个方面进一步提高YOLO的性能效率边界。为此,首先提出了YOLOs无NMS训练的一致双重分配,它同时带来了有竞争力的性能和低推理延迟。此外还介绍了YOLO的整体效率精度驱动模型设计策略。

基于上述的分析研究作者提出了几点改进策略:
1、一致优化目标的无NMS双标签分配策略
YOLOs引入了双标签分配,以结合这两种策略的优点。核心思想是在训练阶段使用一对多的检测头提供更多的正样本来丰富模型的训练,为YOLOs合并了另一个一对一的头部。它保留了与原始一对多分支相同的结构并采用相同的优化目标,但利用一对一匹配来获得标签分配。在训练过程中,两个头与模型联合优化,使骨干和颈部享受一对多任务提供的丰富监督。在推理过程中丢弃一对多的头利用一对一的头进行预测。这使得YOLOs能够进行端到端部署,而不会产生任何额外的推断成本。
2、整体效率-精度驱动的模型架构设计
虽然之前的工作探索了各种各样的设计策略,但仍然缺乏对YOLOs中各种组件的全面检查。模型体系结构具有不可忽略的计算冗余和受限能力阻碍了实现高效率和高性能的潜力。在这里目标是从效率和准确性的角度为YOLOs整体地执行模型设计——效率驱动的模型设计。YOLO中的组件包括stem、下采样层、具有基本构建块的阶段和头部。stem产生的计算成本很少,因此主要对其他三个部分执行效率驱动的模型设计。

【执行效率驱动的模型设计】
A、 轻型分类头。在YOLOs中,分类和回归头通常共享相同的体系结构。然而,它们在计算开销方面表现出显著的差异。在分析分类误差和回归误差的影响后发现回归头对YOLOs的性能有更大的影响。故而可以减少分类头的开销而不必担心会严重影响分类头的性能。因此作者简单地采用了一种轻量级的分类头结构,它由两个深度可分离的卷积组成核大小为3×3然后是一个1×1卷积。
B、空间通道解耦下采样。引入空间-通道解耦下采样减少计算冗余,提高整体模型效率。
C、 秩引导块设计。为了彻底检查YOLOs的同质设计利用内在秩来分析每个阶段的冗余。作者计算每个阶段最后一个基本块中最后一个卷积的数值秩,计算大于阈值的奇异值的数量。结果表明深部阶段和大型模型易于显示更多冗余。简单地对所有阶段应用相同的块设计对于最佳容量效率权衡是次优的。为了解决这一问题提出了一种秩引导块设计方案,该方案旨在使用紧凑的体系结构设计来降低冗余阶段的复杂性。首先提出了一种紧凑的反向块(CIB)结构,它采用廉价的深度卷积进行空间混合,并采用经济高效的逐点卷积进行信道混合,它可以作为有效的基本构建块,然后提出了一种等级引导的区块分配策略,以实现最佳效率,同时保持竞争力。根据其内在的等级按升序对其所有阶段进行排序。并进一步考察了用CIB替代前级基本块的性能变化。如果与给定模型相比没有性能下降,则继续替换下一阶段,否则停止该过程。因此,我们可以实现跨阶段和模型规模的自适应紧凑块设计,在不影响性能的情况下实现更高的效率。

【精度驱动模型设计】
D、 大内核卷积。采用大核深度卷积是扩大感受野和增强模型能力的有效方法,但在所有阶段简单地利用可能会在用于检测小对象的浅层特征中引入污染,同时也会在高分辨率阶段引入显著的I/O开销和延迟。因此建议在深度阶段利用CIB中的大内核深度卷积。将CIB中第二个3×3深度卷积的核大小增加到7×7,此外采用结构重参数化技术在不增加推理开销的情况下,引入另一个3×3深度卷积分支,以缓解优化问题。此外随着模型尺寸的增加,它的感受野自然扩大,使用大核卷积的好处逐渐减少。因此对于小模型尺度,我们只采用大核卷积。
E、 部分自我注意(PSA)。自我注意由于其卓越的全局建模能力被广泛应用于各种视觉任务中。然而它具有很高的计算复杂度和内存占用。为了解决这一问题,鉴于普遍存在的注意头冗余提出了一种有效的部分自我注意(PSA)模块设计,在1×1卷积之后,我们将跨通道的特征均匀地划分为两部分只将一部分反馈到由多头部自我注意模块(MHSA)和前馈网络(FFN)组成的NPSA模块中。然后将两部分串联起来,通过1×1卷积进行融合。此外,将查询和键的维数指定为MHSA中值的一半,并将LayerForm替换为BatchNorm以实现快速推理。PSA仅放置在具有最低分辨率的第4阶段之后,避免了由于自我注意的二次计算复杂性而产生的过多开销。这样实现了以较低的计算代价将全局表示学习能力融入到YOLOs中,从而很好地增强了模型的能力,提高了模型的性能。

目前清华官方研究团队一共发布的了包括:N/S/M/B/L/X在内的六款不同参数量级的模型,基于COCO数据集进行了训练,官方提供的预训练权重如下:

ModelTest Size#ParamsFLOPsAPvalLatency
YOLOv10-N6402.3M6.7G38.5%1.84ms
YOLOv10-S6407.2M21.6G46.3%2.49ms
YOLOv10-M64015.4M59.1G51.1%4.74ms
YOLOv10-B64019.1M92.0G52.5%5.74ms
YOLOv10-L64024.4M120.3G53.2%7.28ms
YOLOv10-X64029.5M160.4G54.4%10.70ms

可以根据自己的实际需要进行下载使用,建议一般训练自己的数据集的时候最好是可以基于官方提供的预训练权重来进行迁移训练,这样更理想一些。

这里我们一共应用开发训练了六款模型,如下:

【yolov10n】

# Parameters
nc: 3  # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  # [depth, width, max_channels]
  s: [0.33, 0.50, 1024]
 
backbone:
  # [from, repeats, module, args]
  - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
  - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
  - [-1, 3, C2f, [128, True]]
  - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
  - [-1, 6, C2f, [256, True]]
  - [-1, 1, SCDown, [512, 3, 2]] # 5-P4/16
  - [-1, 6, C2f, [512, True]]
  - [-1, 1, SCDown, [1024, 3, 2]] # 7-P5/32
  - [-1, 3, C2fCIB, [1024, True, True]]
  - [-1, 1, SPPF, [1024, 5]] # 9
  - [-1, 1, PSA, [1024]] # 10
 
# YOLOv8.0n head
head:
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 6], 1, Concat, [1]] # cat backbone P4
  - [-1, 3, C2f, [512]] # 13
 
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 4], 1, Concat, [1]] # cat backbone P3
  - [-1, 3, C2f, [256]] # 16 (P3/8-small)
 
  - [-1, 1, Conv, [256, 3, 2]]
  - [[-1, 13], 1, Concat, [1]] # cat head P4
  - [-1, 3, C2f, [512]] # 19 (P4/16-medium)
 
  - [-1, 1, SCDown, [512, 3, 2]]
  - [[-1, 10], 1, Concat, [1]] # cat head P5
  - [-1, 3, C2fCIB, [1024, True, True]] # 22 (P5/32-large)
 
  - [[16, 19, 22], 1, v10Detect, [nc]] # Detect(P3, P4, P5)

【yolov10s】

# Parameters
nc: 3  # number of classes
scales: # model compound scaling constants, i.e. 'model=yolov8n.yaml' will call yolov8.yaml with scale 'n'
  # [depth, width, max_channels]
  s: [0.33, 0.50, 1024]
 
backbone:
  # [from, repeats, module, args]
  - [-1, 1, Conv, [64, 3, 2]] # 0-P1/2
  - [-1, 1, Conv, [128, 3, 2]] # 1-P2/4
  - [-1, 3, C2f, [128, True]]
  - [-1, 1, Conv, [256, 3, 2]] # 3-P3/8
  - [-1, 6, C2f, [256, True]]
  - [-1, 1, SCDown, [512, 3, 2]] # 5-P4/16
  - [-1, 6, C2f, [512, True]]
  - [-1, 1, SCDown, [1024, 3, 2]] # 7-P5/32
  - [-1, 3, C2fCIB, [1024, True, True]]
  - [-1, 1, SPPF, [1024, 5]] # 9
  - [-1, 1, PSA, [1024]] # 10
 
# YOLOv8.0n head
head:
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 6], 1, Concat, [1]] # cat backbone P4
  - [-1, 3, C2f, [512]] # 13
 
  - [-1, 1, nn.Upsample, [None, 2, "nearest"]]
  - [[-1, 4], 1, Concat, [1]] # cat backbone P3
  - [-1, 3, C2f, [256]] # 16 (P3/8-small)
 
  - [-1, 1, Conv, [256, 3, 2]]
  - [[-1, 13], 1, Concat, [1]] # cat head P4
  - [-1, 3, C2f, [512]] # 19 (P4/16-medium)
 
  - [-1, 1, SCDown, [512, 3, 2]]
  - [[-1, 10], 1, Concat, [1]] # cat head P5
  - [-1, 3, C2fCIB, [1024, True, True]] # 22 (P5/32-large)
 
  - [[16, 19, 22], 1, v10Detect, [nc]] # Detect(P3, P4, P5)

【yolov10m】

# Ultralytics YOLO 

标签:1024,P4,阈值,检测,模型,YOLO,512,True,端到
From: https://blog.csdn.net/Together_CZ/article/details/140091807

相关文章

  • yolov5 上手
    0介绍YOLO(YouOnlyLookOnce)是一种流行的物体检测和图像分割模型,由华盛顿大学的约瑟夫-雷德蒙(JosephRedmon)和阿里-法哈迪(AliFarhadi)开发。YOLO于2015年推出,因其高速度和高精确度而迅速受到欢迎。YOLOv5在YOLOv4的基础上进一步提高了模型的性能,并增加了超参数......
  • 使用预训练模型(yolov8、MobileNetV2、ResNet50)与Gradio构建图像目标检测Web应用
    简介:  利用gradio设计一个web运用,实现图片主体物的识别。  1)用户可以通过网页提交一张图片。  2)web应用将输出这张图片中主体物的名称(中英文都可以)。  3)可以使用预训练的模型。利用预训练实现对物体识别准备工作在开始之前,请确保你的环境中已安装了以下依赖......
  • Python从0到100(四十):Web开发简介-从前端到后端(文末免费送书)
    前言:零基础学Python:Python从0到100最新最全教程。想做这件事情很久了,这次我更新了自己所写过的所有博客,汇集成了Python从0到100,共一百节课,帮助大家一个月时间里从零基础到学习Python基础语法、Python爬虫、Web开发、计算机视觉、机器学习、神经网络以及人工智能相关知......
  • Turtlebot3在ROS Gazebo中使用OpenCV检测并跟踪球体
    原文链接:https://www.youtube.com/watch?v=Rw6ATkORRG8   一个小巧的机器人在虚拟世界中敏捷地追踪着一个滚动的球体。Turtlebot3,一个搭载ROS操作系统的智能机器人,在Gazebo仿真环境中,利用OpenCV的神奇力量,展现出令人惊叹的视觉追踪能力。 Turtlebot3的"眼睛"是一台高清......
  • 心跳检测的艺术:Eureka服务发现中的智能配置
    心跳检测的艺术:Eureka服务发现中的智能配置在微服务架构中,服务发现是确保服务之间可以相互通信的关键机制。Eureka作为Netflix开源的服务发现框架,提供了一种简单而高效的服务注册与发现机制。然而,为了维持服务的可用性和稳定性,服务之间的心跳检测变得至关重要。本文将深入......
  • 【数据集】Maple-IDS——网络安全恶意流量检测数据集
    一、数据集介绍Maple-IDS数据集是一个网络入侵检测评估数据集,旨在增强异常基础入侵检测系统(IDS)和入侵预防系统(IPS)的性能和可靠性。随着网络空间安全领域攻击的日益复杂化,拥有一个可靠和最新的数据集对于测试和验证IDS和IPS解决方案至关重要。数据集由东北林业大学网络安全实验室......
  • pytorch下yolov8模型实现目标检测(全网最简洁快速,一眼懂)
    最近研究了一个目标检测项目,需要对水稻进行检测,yolov8的模型官网都封装好了,官网地址:Home-UltralyticsYOLODocs,本文给急需目标检测的同学参考,非常急的那种,废话少说,下面是所有代码:importosimporttorchfromultralyticsimportYOLOos.environ['KMP_DUPLICATE_LIB_OK']......
  • 基于小波分析的糖尿病视网膜病变检测(Python)
    fromscipyimportmiscfromPILimportImagefromskimageimportexposurefromsklearnimportsvmimportscipyfrommathimportsqrt,pifromnumpyimportexpfrommatplotlibimportpyplotaspltimportnumpyasnpimportglobimportmatplotlib.pyplotas......
  • 毕业设计 基于机器视觉的PCB焊接缺陷检测系统(Halcon+C#)
    毕业设计基于机器视觉的PCB焊接缺陷检测系统一、功能需求检测PCB板的焊接缺陷:漏焊、虚焊等二、开发环境1、Halcon2、C#三、运行效果处理图片:运行视频:毕业设计基于机器视觉的PCB焊接缺陷检测系统毕业设计资料(C#软件源码+Halcon算法源码+开题报告+毕业设计+......
  • 5.1 目标检测基本概念和YOLOv3设计思想
    5.1目标检测基本概念和YOLOv3设计思想对计算机而言,能够“看到”的是图像被编码之后的数字,但它很难理解高层语义概念,比如图像或者视频帧中出现的目标是人还是物体,更无法定位目标出现在图像中哪个区域。目标检测的主要目的是让计算机可以自动识别图片或者视频帧中所有目标的......