• 2024-06-11yolov5-7.0更改resnet主干网络
    参考链接ClearML教程:https://blog.csdn.net/qq_40243750/article/details/126445671b站教学视频:https://www.bilibili.com/video/BV1Mx4y1A7jy/spm_id_from=333.788&vd_source=b52b79abfe565901e6969da2a1191407开始github地址:https://github.com/z1069614715/objec
  • 2024-06-05实验15-使用RESNET完成图像分类
    model.py#-*-coding:utf-8-*-"""author:ZhouChendatetime:2019/6/259:10desc:实现模型"""fromkeras.modelsimportModelfromkeras.layersimportConv2D,MaxPooling2D,BatchNormalization,Flatten,Input,ZeroPadding2D
  • 2024-05-02迁移学习讲解、举例基于resnet-50 backbone的YOLO v1模型
    一、概念介绍迁移学习是指通过将一个已经在某一任务上训练好的模型,应用于另一个任务上。在迁移学习中,一般会将预训练模型的权重加载到新的模型中,然后对新的模型进行微调。预训练模型是指在大规模的数据集上训练好的模型这些模型通常具有很好的泛化能力,可以应用于各种任务,如图
  • 2024-05-02ResNet代码精读
    classBasicBlock(nn.Module):expansion=1def__init__(self,in_channel,out_channel,stride=1,downsample=None,**kwargs):#虚线对应的downsamplesuper(BasicBlock,self).__init__()self.conv1=nn.Conv2d(in_channels=in_channel,ou
  • 2024-04-16使用t-SNE可视化CIFAR-10的表征
    t-SNE理论相关理论可参见t-SNE算法。本文通过PyTorch提供的预训练Resnet50提取CIFAR-10表征,并使用t-SNE进行可视化。加载预训练Resnet50importtorchfromtorchvision.modelsimportresnet50,ResNet50_Weights#加载ResNet模型resnet=resnet50(weights=ResNet50_Weight
  • 2024-04-11卷积神经网络基础---批量归一化(BN层、 Batch Normalization)
    原文链接:https://blog.csdn.net/weixin_43972154/article/details/1201998331.BN层的作用BN层使得神经网络能够设定较高的初始学习率,加速模型收敛过程;将数据进行归一化处理,即在网络的每一层输入的时候,插入了一个归一化层,然后再进入网络的下一层。这样能提高网络的泛化能力,使得网
  • 2024-04-11卷积神经网络——残差网络(ResNet)
    原文链接:https://blog.csdn.net/weixin_52963585/article/details/124903050在实际的试验中发现,随着卷积层和池化层的叠加,不但没有出现学习效果越来越好的情况,反而两种问题:梯度消失和梯度爆炸梯度消失:若每一层的误差梯度小于1,反向传播时,网络越深,梯度越趋近于0梯度爆炸:若每一层的
  • 2024-03-30深度学习pytorch——经典卷积网络之ResNet(持续更新)
    错误率前五的神经网络(图-1):图-1可以很直观的看到,随着层数的增加Error也在逐渐降低,因此深度是非常重要的,但是学习更好的网络模型和堆叠层数一样简单吗?通过实现表明(图-2),并不是如此,会出现梯度消失和梯度爆炸的现象,甚至比堆叠之前的训练效果更差,这种现象被称为梯度
  • 2024-03-24YoloV8改进策略:Block改进|ECA-Net:用于深度卷积神经网络的高效通道注意力|ECA+压缩膨胀Block实现涨点
    摘要arxiv.org/pdf/1910.03151.pdf最近,通道注意机制已被证明在改善深度卷积神经网络(CNN)的性能方面具有巨大潜力。然而,大多数现有方法致力于开发更复杂的注意模块以实现更好的性能,这不可避免地会增加模型的复杂性。为了克服性能和复杂性折衷之间的矛盾,本文提出了一种有效
  • 2024-03-17【PyTorch 实战1:ResNet 分类模型】10min揭秘 ResNet如何轻松训练超深层网络以及pytorch代码实现
    ResNet简介和原理1.什么是ResNet?ResNet的目标是解决训练深层神经网络时出现的梯度消失问题。在深层网络中,梯度消失会导致难以训练。ResNet通过引入跳跃连接或快捷连接来有效地解决这个问题。由何凯明等人于2015年提出。这篇论文的正式标题是《DeepResidualLearning
  • 2024-03-17《A ConvNet for the 2020s》阅读笔记
    论文标题《AConvNetforthe2020s》面向2020年代的ConvNet作者ZhuangLiu、HanziMao、Chao-YuanWu、ChristophFeichtenhofer、TrevorDarrell和SainingXie来自FacebookAIResearch(FAIR)和加州大学伯克利分校初读摘要“ViT盛Conv衰”的现状:视觉识
  • 2024-02-27CNN的进击之路——讲讲ResNet, Inception, ResNeXt和Densenet等常见网络
    前言本文是一篇大杂烩,按照发布时间总结了CNN的一些常见网络。AlexNet(2010)—>VGG(2014)——> GoogLeNetV1(2014)——>ResNet(2015)——>DenseNet(2017)——>MobileNet(2019)https://tobefans.github.io/2020/05/13/resnet/#%E5%89%8D%E8%A8%80AlexNetAlexNet来源于ImageNetClas
  • 2024-02-08dl-cdr-fai-pt-merge-08
    面向程序员的FastAI和PyTorch深度学习(九)原文:DeepLearningforCodersWithFastaiandPytorch译者:飞龙协议:CCBY-NC-SA4.0第十四章:ResNets在本章中,我们将在上一章介绍的CNN基础上构建,并向您解释ResNet(残差网络)架构。它是由KaimingHe等人于2015年在文章“Dee
  • 2023-12-28CLIP 对比预训练 + 文字图像相似度:离奇调查,如何训练视觉大模型?
    CLIP:如何训练视觉大模型?对比预训练图像编码器文本编码器最大的亮点:zero-shot图像分类 CLIP论文地址:https://arxiv.org/pdf/2103.00020.pdfCLIP=对比学习+预训练+文字图像相似度。对比预训练传统方法训练视觉模型的方式通常是使用有监督学习方法,需要收集大量图像和对应标签
  • 2023-12-27QARV: Quantization-Aware ResNet VAE for Lossy Image Compression
    目录简介创新之处模型结构实验结果什么是Quantization-Aware量化感知?简介该文章基于VAE提出一种新的有损图像压缩方法,起名叫quantization-awareResNetVAE(QARV).这种方法集成了测试时间量化和量化感知训练,没有它就无法进行熵编码?除此之外还专门设计了用于快速解码的QARV网
  • 2023-12-27利用 FCN 使得 ResNet 允许任意大小图片输入
    阅读这个网站写的一些备忘。通过少量修改ResNet18网络结构的形式,对全卷积网络方案一窥究竟。允许网络输入任意大小的图像一般的卷积网络,会因为全连接层nn.Linear的存在,而仅允许固定大小的图像输入。全卷积网络FCN使用1×1的卷积核,回避了全连接层的缺陷。不摒弃全连接
  • 2023-12-20Stable Diffusion组成
    一、TextUnderstander(蓝色部分)将文字转换成某种计算机能理解的数学表示textunderstander是个特别的Transformer语言模型(例如clip,可参考Clip介绍)textunderstander的输入是人类语言(token),输出是一系列的向量(tokenembeddings,每个向量有768维),这些向量的语义对应着我们输入的
  • 2023-12-18Deep Residual Learning for Image Recognition:ResNet
    DeepResidualLearningforImageRecognition*Authors:[[KaimingHe]],[[XiangyuZhang]],[[ShaoqingRen]],[[JianSun]]DOI:10.1109/CVPR.2016.90初读印象comment::(ResNet)提出残差链接以解决网络训练效率随着深度增加而下降的情况。Why网络深度对图像识别
  • 2023-12-18RefineNet: Multi-path Refinement Networks for High-Resolution Semantic Segmentation
    RefineNet:Multi-pathRefinementNetworksforHigh-ResolutionSemanticSegmentation*Authors:[[GuoshengLin]],[[AntonMilan]],[[ChunhuaShen]],[[IanReid]]DOI:10.1109/CVPR.2017.549Locallibrary初读印象comment::(RefineNet)一种多路径的用于高分
  • 2023-10-29ResNet详解:网络结构解读与PyTorch实现教程
    本文深入探讨了深度残差网络(ResNet)的核心概念和架构组成。我们从深度学习和梯度消失问题入手,逐一解析了残差块、初始卷积层、残差块组、全局平均池化和全连接层的作用和优点。文章还包含使用PyTorch构建和训练ResNet模型的实战部分,带有详细的代码和解释。关注TechLead,分享AI与
  • 2023-10-29ResNet详解:网络结构解读与PyTorch实现教程
    本文深入探讨了深度残差网络(ResNet)的核心概念和架构组成。我们从深度学习和梯度消失问题入手,逐一解析了残差块、初始卷积层、残差块组、全局平均池化和全连接层的作用和优点。文章还包含使用PyTorch构建和训练ResNet模型的实战部分,带有详细的代码和解释。关注TechLead,分享AI与
  • 2023-09-27迁移学习与ResNet
    一、迁移学习深度学习中,迁移学习可以让小样本学习得更好,省时,方便。eg:我们采用YOLOV5训练识别动物(假定是简单得二分类),那么我们可以使用作者基于coco数据集训练得所得权重文件weight1;在此基础上,训练我们的数据,即:使用我们的数据对weight1接着调整,直到weight1适应于我们的数据。
  • 2023-09-23《动手学深度学习 Pytorch版》 7.6 残差网络(ResNet)
    importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFfromd2limporttorchasd2l7.6.1函数类如果把模型看作一个函数,我们设计的更强大的模型则可以看作范围更大的函数。为了使函数能逐渐靠拢到最优解,应尽量使函数嵌套,以减少不必要的偏移。如下图,更复
  • 2023-09-01残差神经网络:原理与实践
    VGGNet和GoogLeNet等网络都表明有足够的深度是模型表现良好的前提,但是在网络深度增加到一定程度时,更深的网络意味着更高的训练误差。误差升高的原因是网络越深,梯度弥散[还有梯度爆炸的可能性]的现象就越明显,所以在后向传播的时候,无法有效的把梯度更新到前面的网络层,靠前的网络层参
  • 2023-08-23揭秘深层神经网络:探索残差网络(ResNet)架构
    在现代深度学习中,深层神经网络在解决复杂任务方面表现出色。然而,随着网络层数增加,深层网络往往面临梯度消失和退化问题。残差网络(ResNet)作为一种创新的架构,成功地解决了这些问题,在多个计算机视觉任务上取得了显著的成果。本文将深入探讨ResNet的原理、结构以及其在深度学习中的重要