首页 > 其他分享 >yolo11的分类模型可能遇到的问题

yolo11的分类模型可能遇到的问题

时间:2024-12-15 20:46:02浏览次数:3  
标签:yolo11 yolo yolo11n 模型 分类 yaml train YOLO cls

1、魔改的yolo11-cls(主改head.py内容),加载时使用如下方式,否则可能魔改无效

yolo = YOLO("yolo11n-cls.yaml").load("yolo11n-cls.pt")

yolo11n-cls.yaml里将nc写成自己的类别数

 

2、train时data指定的yaml无效,提示数据集未找到

直接用目录,到train、val的上一层即可。我的train、val文件夹都在dst目录里。

yolo = YOLO("yolo11n-cls.yaml").load("yolo11n-cls.pt")
results = yolo.train(data='/home/用户名/datasets/classify/dst', epochs=500, batch=32, imgsz=160,patience=0)

参考 YOLO 11 Dataset not found 解决方法_趋动云 yolo 'yolo11n.yaml' does not exist-CSDN博客

 

3、export导出时,batch动态,图像尺寸固定

yolo导出,动态batch,固定图片尺寸 - 夕西行 - 博客园

 

4、export导出onnx后,opencv dnn调用崩溃

opset指定版本太高,设置为11即可

#转onnx
best = YOLO("yolo11n-cls.yaml").load("./runs/classify/train45/weights/best.pt")
best.export(format="onnx",imgsz=(160,640),dynamic=True,opset=11)

参考导出 -Ultralytics YOLO 文档

 

标签:yolo11,yolo,yolo11n,模型,分类,yaml,train,YOLO,cls
From: https://www.cnblogs.com/xixixing/p/18608660

相关文章

  • Differential Transformer: 通过差分注意力机制提升大语言模型性能
    Transformer模型已经成为大语言模型(LLMs)的标准架构,但研究表明这些模型在准确检索关键信息方面仍面临挑战。今天介绍一篇名叫DifferentialTransformer的论文,论文的作者观察到一个关键问题:传统Transformer模型倾向于过分关注不相关的上下文信息,这种"注意力噪声"会影响模型的性能。......
  • 转行大模型?看完这篇少走三年弯路,新人应该如何转行大模型赛道?
    这篇文章,我将结合自己在大模型领域的经验,给大家详细聊聊新人应该如何转行大模型赛道?比如大模型都有哪些方向?各方向的能力要求和岗位匹配?新手转行大模型常踩的坑和常见的误区?以及入行大模型最顺滑的路径?如果你是正打算入行大模型的校招/社招同学,请一定看完,可能会让你在入行......
  • 程序员转行到大模型,最全面的分析,快来了解一下你是否适合
    大模型算是当之无愧最火的一个方向了,算是新时代的风口。有小伙伴觉得,既然是新领域、新方向,那么,人才需求肯定比较大,相应的人才缺乏,竞争也会更少,那转行去做大模型是不是一个更好的选择呢?是不是更好就业呢?是不是就暂时能抵抗35岁中年危机呢?分享一下我的看法,希望给想要在大模型......
  • R:SVM-RFE特征筛选与分类性能分析脚本
    #清理环境和设置工作目录rm(list=ls())setwd("C:\\Users\\Administrator\\Desktop\\machinelearning\\SVM-RFE\\CAZy")set.seed(127)#加载数据input<-read.table("matched_otu.txt",header=TRUE,row.names=1,sep="\t")......
  • R:分类学等级解析与标准化脚本
    rm(list=ls())setwd("C:\\Users\\Administrator\\Desktop\\machinelearning\\Network")#设置工作目录library(dplyr)library(tidyr)library(readr)#读取文件data<-readLines('1.txt')#定义分类等级的前缀和列名prefixes<-c("k__"......
  • 旋转位置编码(RoPE):Transformer 模型中的创新位置编码技术
    一、引言        在自然语言处理(NLP)领域,Transformer模型因其强大的并行计算能力和优秀的性能而广受关注。然而,原始Transformer模型的一个重要缺点是无法有效捕捉输入序列中token的位置信息。为了解决这一问题,研究人员开发了多种位置编码方法,其中旋转位置编码(Rota......
  • zblog函数GetCategoryByID:通过分类ID获取分类对象数据
    函数位置:zblogphp.php文件,大约3300行。函数参数:$id:整数类型,要获取数据的分类ID。函数输出:返回一个对象,包含指定分类的所有值。示例:if($zbp->GetCategoryByID(1)->ID!=0){//存在ID是1的分类echo$zbp->GetCategoryByID(1)->Name;}其他数......
  • 微软推出Phi-4生成式AI模型 改进数学能力与训练数据质量
    微软宣布,其Phi系列生成式AI模型迎来了新成员——Phi-4。与之前的版本相比,Phi-4在多个方面有所改进,尤其在数学问题的解决能力上表现突出,这得益于训练数据质量的提升。截至周四晚上,Phi-4的访问权限相对有限,仅在微软最新推出的AzureAIFoundry开发平台上可用,且仅限于微软研究......
  • 大模型如何全面赋能呼叫中心呼入与呼出?(转)
    大模型如何全面赋能呼叫中心呼入与呼出?(转)原作者:开源呼叫中心FreeIPCC大模型在呼叫中心呼入与呼出方面的全面赋能,主要体现在以下几个方面:一、呼入方面的赋能语音识别与合成:通过语音识别技术,大模型呼入系统能够将客户的语音请求转化为文本信息,为后续的处理提供基础。利用......
  • 人工智能大语言模型起源篇,低秩微调(LoRA)
    上一篇:《规模法则(ScalingLaw)与参数效率的提高》序言:您在找工作时会不会经常听到LoRA微调,这项技术的来源就是这里了。(12)Hu、Shen、Wallis、Allen-Zhu、Li、LWang、SWang和Chen于2021年发表的《LoRA:Low-RankAdaptationofLargeLanguageModels》,https://arxiv.org/a......