首页 > 其他分享 >YOLOv7引入Swin Transformer以及CCNet出现的问题

YOLOv7引入Swin Transformer以及CCNet出现的问题

时间:2023-03-28 21:13:33浏览次数:55  
标签:YOLOv7 Transformer Swin py test model

YOLOv7引入Swin Transformer以及CCNet出现的问题 一、YOLOv7训练完,运行test.py的时候出现:RuntimeError: expected scalar type Float but found Half  错误 采用GPU训练时出现的问题!

解决方案:

将test.py中的 model.half()改成model.float()   同时  将 torch_utils.py中的 out = self.model(x) 改成 out = self.model(x.float())

如图:

改完之后,运行就可以了!!!

 

二、YOLOv7中使用Swin Transformer训练完,运行test.py的时候出现:RuntimeError: shape '[8, 6, 8, 10, 8, 32]' is invalid for input of size 1032192 错误。

解决方案:

这里是由于输入图片大小为 640 导致的问题,而设置672或者224不会出现这个问题,但设置 448 还是会出现这个问题。具体原因不太清楚。Window_size 设置的为 7 。

 

 

 

标签:YOLOv7,Transformer,Swin,py,test,model
From: https://www.cnblogs.com/6S6B/p/17266700.html

相关文章

  • GPT前世今生-transformer-注意力机制
    GPT前世今生-transformer-注意力机制背景:心理学知识,随意线索和非随意线索。 启发:注意力机制中概念:query:你的要求查询的东西。如问“你要干嘛?”key:如杯子,......
  • Java使用IntelliJ IDEA创建一个基于Swing的GUI图形化程序,打包发布为jar
    1、创建GUI窗体首先,直接新建一个默认的空的Java模块即可,随便取个名字之后再src目录下右键,新建,创建一个Swing的GUI窗体,随便取个名字给主窗体改个名字到java代码中生成一个窗......
  • GPT前世今生-transformer
    GPT前世今生-transformer  FAQ1多头注意力机制中什么是key,value和query?答:在Transformer中的多头注意力机制中,每个头都会有自己的“key(键)”、“value(值)”和“quer......
  • Transformer论文精读(李沐)
    摘要序列转录模型:给你一个序列,生成一个序列simplenetworkarchitecture:“简单的模型”不再也不应该是一个贬义词,简单高效应当是值得提倡的BLEU:机器翻译中的衡量标准 ......
  • Debunking Rumors on Twitter with Tree Transformer
    Article:l 论文标题:DebunkingRumorsonTwitterwithTreeTransformer(利用树状Transformer模型揭露Twitter中的谣言)l 论文作者:JingMa、WeiGaol 论文来源:2020......
  • 王树森Transformer学习笔记
    目录TransformerAttention结构Self-Attention结构Multi-headSelf-AttentionBERT:BidirectionalEncoderRepresentationsfromTransformersSummaryReferenceTransformer......
  • 从Transformer到ViT:多模态编码器算法原理解析与实现
    从Transformer到ViT:多模态编码器算法原理解析与实现模型架构与算法原理ImageTokenEmbeddingMulti-headSelf-attention流程线性变换MatMulScale和softmaxMatMul前向层模块......
  • 【手搓模型】亲手实现 Vision Transformer
    ......
  • transformer 中的bert是如何初始化的
    动机:在看BertForMaskedLM的实现代码时,发现在classinit的时候有一个self.post_init()函数,希望看一下它内部调用的哪个函数,以及如果我们自己定义了一些新的模型参数或者em......
  • CVPR2023 | 集成预训练金字塔结构的Transformer模型
    前言 本文提出了一种新的预训练模型架构(iTPN),该架构由多个金字塔形的Transformer层组成。每个层都包含多个子层,其中一些是普通的self-attention和feed-forward层,而另一些......