首页 > 其他分享 >YOLO家族中谁才是轻量级网络模型的王者,让我们实验探索分析【YOLOv3—YOLOv10】系列,挖掘最强的轻量级网络模型,以课堂行为检测场景数据为实验基准

YOLO家族中谁才是轻量级网络模型的王者,让我们实验探索分析【YOLOv3—YOLOv10】系列,挖掘最强的轻量级网络模型,以课堂行为检测场景数据为实验基准

时间:2024-06-20 13:57:45浏览次数:12  
标签:None nn Conv 0.1 模型 LeakyReLU 实验 128 轻量级

在我们前面的系列博文中,我们基于YOLOv3-YOLOv10众多系列的YOLO模型开发实践了非常多的检测模型,在以往的项目开发过程中,我们大多是关注单个系列模型下纵深方向的不同参数分支对比实验结果,比较少去站在不同YOLO系列的角度来进行横向的对比分析。

又是一年一度的618了,晚上正好有点时间突然有个想法,YOLO系列的迭代演变从YOLOv3开发一路高歌猛进发展到了如今的YOLOv10系列,每个不同的系列都有针对的提升和构建的亮点,那么如果说是想要在边缘端设备算力受限的场景下,想要开发一款轻量级的网络模型,那么应该选择哪个系列的模型来进行开发实践呢?如果说每次都要把八个主流的系列中的模型都全部开发完成才能对比得出结论,的确是一种方式,但是真的是比较低效的选择了,那么能否选定一个基准的实验数据场景,我们来标准化的对比分析来提供一组相对可靠的数据支撑呢?

答案肯定是可以的,本文的主要目的也就是想要基于自己的真实业务数据场景,来依次开发构建YOLOv3-YOLOv10不同版本下最轻量级的网络模型,进而对比分析最强模型。这里我们以前面使用到的学生课堂行为检测场景为基准,来开发不同的检测模型。这里我们直接先看下最终的实验对比结果:

接下来我们依次给出来每个版本下的实验模型:

【YOLOv3-Tiny】

# parameters
nc: 8  # number of classes
depth_multiple: 1.0  # model depth multiple
width_multiple: 1.0  # layer channel multiple

# anchors
anchors:
  - [10,14, 23,27, 37,58]  # P4/16
  - [81,82, 135,169, 344,319]  # P5/32

# YOLOv3-tiny backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Conv, [16, 3, 1]],  # 0
   [-1, 1, nn.MaxPool2d, [2, 2, 0]],  # 1-P1/2
   [-1, 1, Conv, [32, 3, 1]],
   [-1, 1, nn.MaxPool2d, [2, 2, 0]],  # 3-P2/4
   [-1, 1, Conv, [64, 3, 1]],
   [-1, 1, nn.MaxPool2d, [2, 2, 0]],  # 5-P3/8
   [-1, 1, Conv, [128, 3, 1]],
   [-1, 1, nn.MaxPool2d, [2, 2, 0]],  # 7-P4/16
   [-1, 1, Conv, [256, 3, 1]],
   [-1, 1, nn.MaxPool2d, [2, 2, 0]],  # 9-P5/32
   [-1, 1, Conv, [512, 3, 1]],
   [-1, 1, nn.ZeroPad2d, [0, 1, 0, 1]],  # 11
   [-1, 1, nn.MaxPool2d, [2, 1, 0]],  # 12
  ]

# YOLOv3-tiny head
head:
  [[-1, 1, Conv, [1024, 3, 1]],
   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, Conv, [512, 3, 1]],  # 15 (P5/32-large)

   [-2, 1, Conv, [128, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 8], 1, Concat, [1]],  # cat backbone P4
   [-1, 1, Conv, [256, 3, 1]],  # 19 (P4/16-medium)

   [[19, 15], 1, Detect, [nc, anchors]],  # Detect(P4, P5)
  ]

【YOLOv4-Tiny】

[net]
# Testing
#batch=1
#subdivisions=1
# Training
batch=64
subdivisions=1
width=416
height=416
channels=3
momentum=0.9
decay=0.0005
angle=0
saturation = 1.5
exposure = 1.5
hue=.1

learning_rate=0.00261
burn_in=1000
max_batches = 500200
policy=steps
steps=400000,450000
scales=.1,.1

[convolutional]
batch_normalize=1
filters=32
size=3
stride=2
pad=1
activation=leaky

[convolutional]
batch_normalize=1
filters=64
size=3
stride=2
pad=1
activation=leaky

[convolutional]
batch_normalize=1
filters=64
size=3
stride=1
pad=1
activation=leaky

[route_lhalf]
layers=-1

[convolutional]
batch_normalize=1
filters=32
size=3
stride=1
pad=1
activation=leaky

[convolutional]
batch_normalize=1
filters=32
size=3
stride=1
pad=1
activation=leaky

[route]
layers = -1,-2

[convolutional]
batch_normalize=1
filters=64
size=1
stride=1
pad=1
activation=leaky

[route]
layers = -6,-1

[maxpool]
size=2
stride=2

[convolutional]
batch_normalize=1
filters=128
size=3
stride=1
pad=1
activation=leaky

[route_lhalf]
layers=-1

[convolutional]
batch_normalize=1
filters=64
size=3
stride=1
pad=1
activation=leaky

[convolutional]
batch_normalize=1
filters=64
size=3
stride=1
pad=1
activation=leaky

[route]
layers = -1,-2

[convolutional]
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky

[route]
layers = -6,-1

[maxpool]
size=2
stride=2

[convolutional]
batch_normalize=1
filters=256
size=3
stride=1
pad=1
activation=leaky

[route_lhalf]
layers=-1

[convolutional]
batch_normalize=1
filters=128
size=3
stride=1
pad=1
activation=leaky

[convolutional]
batch_normalize=1
filters=128
size=3
stride=1
pad=1
activation=leaky

[route]
layers = -1,-2

[convolutional]
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky

[route]
layers = -6,-1

[maxpool]
size=2
stride=2

[convolutional]
batch_normalize=1
filters=512
size=3
stride=1
pad=1
activation=leaky

##################################

[convolutional]
batch_normalize=1
filters=256
size=1
stride=1
pad=1
activation=leaky

[convolutional]
batch_normalize=1
filters=512
size=3
stride=1
pad=1
activation=leaky

[convolutional]
size=1
stride=1
pad=1
filters=255
activation=linear



[yolo]
mask = 3,4,5
anchors = 10,14,  23,27,  37,58,  81,82,  135,169,  344,319
classes=80
num=6
jitter=.3
scale_x_y = 1.05
cls_normalizer=1.0
iou_normalizer=0.07
iou_loss=ciou
ignore_thresh = .7
truth_thresh = 1
random=0
nms_kind=greedynms
beta_nms=0.6

[route]
layers = -4

[convolutional]
batch_normalize=1
filters=128
size=1
stride=1
pad=1
activation=leaky

[upsample]
stride=2

[route]
layers = -1, 23

[convolutional]
batch_normalize=1
filters=256
size=3
stride=1
pad=1
activation=leaky

[convolutional]
size=1
stride=1
pad=1
filters=255
activation=linear

[yolo]
mask = 1,2,3
anchors = 10,14,  23,27,  37,58,  81,82,  135,169,  344,319
classes=80
num=6
jitter=.3
scale_x_y = 1.05
cls_normalizer=1.0
iou_normalizer=0.07
iou_loss=ciou
ignore_thresh = .7
truth_thresh = 1
random=0
nms_kind=greedynms
beta_nms=0.6

【YOLOv5n】

# YOLOv5 

标签:None,nn,Conv,0.1,模型,LeakyReLU,实验,128,轻量级
From: https://blog.csdn.net/Together_CZ/article/details/139751607

相关文章

  • 算力大模型天天说:华为开发者大会将于22日举办
    大模型训练算力效率提升背景:随着AI技术的发展,大模型训练对算力的需求越来越高,如何提高训练效率成为业界关注的焦点。案例:华为开发者大会2024:6月22日,华为将举办开发者大会,其中“大模型混合云”高峰论坛将探讨如何通过华为云Stack解决大模型应用落地的难题。中国电信Tele-......
  • XR22005-3与XR22010-3:电力实验领域的双重保障
    在电力科技的浪潮中,XR22005-3和XR22010-3高频电力模块凭借其卓越的性能和稳定性,成为了行业的佼佼者。这两款高频电力模块不仅拥有高精度的电压和电流输出能力,更以其高效能、节能环保的特点赢得了市场的广泛认可。XR22005-3模块,以其高效的能量转换和低能耗特点,在电力供应领域展......
  • verilog 设计与综合实验报告(6)
    题目6:设计一个交通信号灯控制器1、设计方案输入为car车辆到来时为1,无车时为0,输出o_signal为交通信号灯,0001时为红灯,0010时为黄灯,0100时为绿灯,1000时为左拐灯,复位之后,交通灯在空闲状态,当车辆到来时交通灯到下一状态绿灯,等待40s,到下一状态左拐灯,等待15s,到黄灯,然后等待5s转到空......
  • 技术变革下的职业机遇——大模型
    前言随着技术的飞速发展,我们正站在一个前所未有的变革时代。在这个由数据驱动、智能引领的新纪元,大模型技术正以其独特的魅力和巨大的潜力,为职业领域带来全新的机遇和挑战。一、大模型:技术变革的引领者大模型技术,作为人工智能领域的重要分支,正以其强大的数据处理能力和深......
  • 硬件开发笔记(二十):AD21导入外部下载的元器件原理图库、封装库和3D模型
    前言  在硬件设计的过程中,会遇到一些元器件,这些元器件在本地已有的库里面没有,但是可以从外部下载或者获取到对应的。  本篇就是引入TPS54331D电源芯片作为示例,详细描述整个过程。 创建TPS54331D步骤一:下载TPS54331D模型  云汉芯城  注意:无需注册登录,搜索到......
  • 可以免费领取tokens的大模型服务
    本文更新时间:2024年6月20日豆包大模型"亲爱的客户,模型提供方将在5月15日至8月30日期间,为您提供一次独特的机会,即高达5亿tokens的免费权益。这是我们对您长期支持的感谢,也是对未来合作的期待。"在8月30日之前可以领取5亿tokensDeepSeek|深度求索注册获500万tokens(限中国......
  • 初学者学习AI大模型必看指南,一文尽览大模型知识点!绝对干货!!!
    一、什么是大模型?当我们提及大模型时,通常指的是大语言模型(LargeLanguageModel,简称LLM),即文字问答模型,其典型代表便是OpenAI的GPT系列。然而,随着技术的日新月异,大模型已经不单单局限于自然语言处理(NaturalLanguageProcessing)领域的发光发热,而是逐渐渗透到了其他多个领域......
  • 【计算机网络仿真】b站湖科大教书匠思科Packet Tracer——实验2 MAC地址,IP地址,ARP协议
    一、实验目的1.掌握计算机网络的寻址问题;2.验证MAC地址与IP地址的关系;3.了解ARP协议的作用。二、实验要求1.使用CiscoPacketTracer仿真平台;2.观看B站湖科大教书匠仿真实验视频,完成对应实验。三、实验内容1.构建网络拓扑;2.配置网络设备;3.跟踪并查看数据包;4.在实......
  • 【计算机网络仿真】b站湖科大教书匠思科Packet Tracer——实验3 总线型以太网的特性(广
    一、实验目的1.验证总线型以太网的特性;2.验证广播特性;3.验证各主机对总线的竞争使用以及可能产生的碰撞。二、实验要求1.使用CiscoPacketTracer仿真平台;2.观看B站湖科大教书匠仿真实验视频,完成对应实验。三、实验内容1.构建网络拓扑;2.配置网络设备;3.跟踪并查看......
  • 基于稀疏矩阵方法的剪枝压缩模型方案总结
    1.简介1.1目的在过去的一段时间里,对基于剪枝的模型压缩的算法进行了一系列的实现和实验,特别有引入的稀疏矩阵的方法实现了对模型大小的压缩,以及在部分环节中实现了模型前向算法的加速效果,但是总体上模型加速效果不理想。所以本文档针对这些实验结果进行分析和总结。1.2范围......