• 2024-11-01【YOLOv11改进 - 注意力机制】LSKA(Large Separable Kernel Attention):大核分离卷积注意力模块
    YOLOv11目标检测创新改进与实战案例专栏点击查看文章目录:YOLOv11创新改进系列及项目实战目录包含卷积,主干注意力,检测头等创新机制以及各种目标检测分割项目实战案例点击查看专栏链接:YOLOv11目标检测创新改进与实战案例@目录YOLOv11目标检测创新改进与实战案例专栏介
  • 2024-10-07大核注意力机制
    一、本文介绍在这篇文章中,我们将讲解如何将LSKAttention大核注意力机制应用于YOLOv8,以实现显著的性能提升。首先,我们介绍LSKAttention机制的基本原理,它主要通过将深度卷积层的2D卷积核分解为水平和垂直1D卷积核,减少了计算复杂性和内存占用。接着,我们介绍将这一机制整合到YOLOv8的
  • 2024-09-29Pytorch学习笔记--搭建神经网络以及Sequential的使用
    首先,搭建一个如下图所示的神经网络: 分析图片,inputs输入图片的inchannels=3,尺寸是32*32,经过kernel_size=5的卷积操作后out_channels=32,尺寸32*32,套用下方公式可算出padding=2(默认dilation=1,stride=1):self.conv1=Conv2d(3,32,5,padding=2)  之后再进行池化操作Max-poolin
  • 2024-09-17第J3-1周:DenseNet算法 实现乳腺癌识别(pytorch)
    >-**
  • 2024-09-10卷积神经网络(李沐老师课程)
    卷积神经网络(李沐老师课程)回顾MLP单层(上述列子需要14GBGPU)找寻图片上的人在哪里找寻图片上的人的两个基本原则从全连接层出发到卷积卷积层二维交叉相关二维卷积层案列交叉相关和卷积代码的实现importtorchfromtorchimportnnfromd2limportt
  • 2024-09-10第J3周:DenseNet算法实战与解析(TensorFlow版)
    >-**
  • 2024-09-03第J2周:ResNet50V2算法实战与解析(pytorch版)
    >-**
  • 2024-08-29Pytorch 中的 Sequential
    1.介绍在PyTorch中,Sequential是一个模型容器。它是一个用于顺序排列神经网络模块(如层、激活函数等)的容器。通过使用Sequential,可以将多个模块按照顺序连接在一起,构建一个深度神经网络模型。使用Sequential时,可以将每个模块按照顺序添加到Sequential容器中。每个模块都可以
  • 2024-08-2520-学习卷积核
    importtorchimporttorch.nnasnnX=torch.rand((6,8))Y=torch.rand((6,7))#(批量⼤⼩、通道、⾼度、宽度)X=X.reshape((1,1,6,8))Y=Y.reshape((1,1,6,7))lr=3e-2#构造卷积层PyTorch会使用默认的初始化方法,例如Xavier初始化或Kaim初始化,来
  • 2024-07-20PyTorch 中 nn.Conv2d()
    nn.Conv2d() 是PyTorch中用于定义二维卷积层(Convolutionallayer)的函数,它属于 torch.nn 模块,该模块包含了构建神经网络所需的所有构建块。二维卷积层是卷积神经网络(CNN)中最基本也是最重要的组件之一,广泛用于图像和视频处理、自然语言处理等领域。nn.Conv2d() 函数的基本语
  • 2024-04-02EFPN代码解读
    论文ExtendedFeaturePyramidNetworkforSmallObjectDetectionpython3D:/Project/EFPN-detectron2-master/tools/train_net.py--config-fileconfigs/InstanceSegmentation/pointrend_rcnn_R_50_FPN_1x_coco.yaml--num-gpus1训练脚本cfg中
  • 2024-04-02优化之前的ocr算法
    importtorch.nnasnnfromcollectionsimportOrderedDictclassBidirectionalLSTM(nn.Module):def__init__(self,nIn,nHidden,nOut):super(BidirectionalLSTM,self).__init__()self.rnn=nn.LSTM(nIn,nHidden,bidirectional=True)
  • 2024-03-24TensorFlow的研究应用与开发~深度学习
    TensorFlow是谷歌开源的机器学习框架,它的主要目标是让开发者能够轻松地构建和部署机器学习模型。TensorFlow的核心概念是张量(Tensor)和计算图(Graph)。张量是TensorFlow中的基本数据结构,可以看作是多维数组。张量可以是常量(Constant)或变量(Variable)。常量是指在计算图中的固定值,而
  • 2024-03-20Python 深度学习第二版(GPT 重译)(四)
    九、高级计算机视觉深度学习本章涵盖计算机视觉的不同分支:图像分类、图像分割、目标检测现代卷积神经网络架构模式:残差连接、批量归一化、深度可分离卷积可视化和解释卷积神经网络学习的技术上一章通过简单模型(一堆Conv2D和MaxPooling2D层)和一个简单的用例(二进制图像
  • 2024-03-18为 PyTorch 层指定自定义名称
    参考这个问答,有两种方法。第一种,在定义nn.Sequential时传入OrderedDict类型变量。importcollectionsimporttorchmodel=torch.nn.Sequential(collections.OrderedDict([("conv1",torch.nn.Conv2d(1,20,5)),("relu1",tor
  • 2023-12-29pytorch转onnx中关于卷积核的问题
    pytorch导出onnx过程中报如下错误:RuntimeError:Unsupported:ONNXexportofconvolutionforkernelofunknownshape.我报错的部分代码如下:defforward(self,input):n,c,h,w=input.size()s=self.scale_factor#padinput(left,right,top,bott
  • 2023-12-27人工智能大模型原理与应用实战:从UNet到Mask RCNN
    1.背景介绍人工智能(ArtificialIntelligence,AI)是一门研究如何让计算机自主地完成人类任务的学科。在过去的几十年里,人工智能主要关注于规则引擎和知识表示。然而,随着数据量的增加和计算能力的提高,深度学习(DeepLearning)成为人工智能领域的一个热门话题。深度学习是一种通过神经网
  • 2023-12-15Conv1D和Conv2D的区别
    layer=layers.Conv1D(input_shape=(66,5),filters=100,kernel_size=10,padding="same",activation="
  • 2023-11-20基于MTTR——视频图像分割
    1.图像分割目前存在的问题现在的deepCNN能提取图像中很多featuremap,比如图像的纹理、颜色、形状特征,但对于分割任务来说这并不是我们全部需要的,分割任务最理想的是根据边界和形状信息进行识别,如果信息流中包含了很多颜色、纹理可能会导致识别问题。2.该网络提出的解决方法
  • 2023-11-04stressnet
    os.environ["CUDA_VISIBLE_DEVICES"]="0"os.environ["CUDA_VISIBLE_DEVICES"]="0"是Python中的代码,它用于设置环境变量CUDA_VISIBLE_DEVICES的取值为"0"。在深度学习和GPU加速的环境中,CUDA_VISIBLE_DEVICES是NVIDIA的CUDA工具包中的一个环境变量。它用来指定哪些GP
  • 2023-10-07model.save() model. save_weights ()
     model.save_weights('./saved_models/8.h5') ===========================================================================model.save()保存了模型的图结构和模型的参数,保存模型的后缀是.hdf5。model.save_weights()只保存了模型的参数,并没有保存模型的图结构,保存模
  • 2023-09-17《动手学深度学习 Pytorch版》 6.7 填充和步幅
    6.3.1填充虽然我们用的卷积核较小,每次只会丢失几像素,但是如果应用多层连续的卷积层,累积的像素丢失就会很多。解决此问题的方法为填充。填充后的输出形状将为\((n_h-k_h+p_h+1)\times(n_w-k_w+p_w+1)\)importtorchfromtorchimportnndefcomp_conv2d(conv2d,X):X
  • 2023-08-23深度学习(十二)——神经网络:搭建小实战和Sequential的使用
    一、torch.nn.Sequential代码栗子官方文档:Sequential—PyTorch2.0documentation#UsingSequentialtocreateasmallmodel.When`model`isrun,#inputwillfirstbepassedto`Conv2d(1,20,5)`.Theoutputof#`Conv2d(1,20,5)`willbeusedastheinputto
  • 2023-08-216.3 填充和步幅 & 卷积层的输出形状公式
    一.填充1.作用:为了防止丢失边缘像素。如240x240的像素图像,经过10层5x5卷积,变成了200x200像素。可以根据输出形状计算公式(w-k+1)x(h-k+1)计算得出。2.方法:最常用的方法是填充0。如下:3.公式:计算填充原图像后的输出形状假设填充p行(上面填充p/2行,下面填充p/2行),p列。输出大小为:w
  • 2023-08-15卷积层
    卷积层卷积操作torch.nn是对torch.function的封装pytorch官网详细介绍了常用的卷积操作函数:conv1d、conv2d、conv3d等,其中Conv1d针对一维的向量,Conv2d针对二维的向量,Conv3d针对三维的向量。在图像处理中,Conv2d的使用次数较多,因此以conv2d为例说明卷积操作(torch.nn.Conv2d和torc