• 2024-07-20PyTorch 中 nn.Conv2d()
    nn.Conv2d() 是PyTorch中用于定义二维卷积层(Convolutionallayer)的函数,它属于 torch.nn 模块,该模块包含了构建神经网络所需的所有构建块。二维卷积层是卷积神经网络(CNN)中最基本也是最重要的组件之一,广泛用于图像和视频处理、自然语言处理等领域。nn.Conv2d() 函数的基本语
  • 2024-04-02EFPN代码解读
    论文ExtendedFeaturePyramidNetworkforSmallObjectDetectionpython3D:/Project/EFPN-detectron2-master/tools/train_net.py--config-fileconfigs/InstanceSegmentation/pointrend_rcnn_R_50_FPN_1x_coco.yaml--num-gpus1训练脚本cfg中
  • 2024-04-02优化之前的ocr算法
    importtorch.nnasnnfromcollectionsimportOrderedDictclassBidirectionalLSTM(nn.Module):def__init__(self,nIn,nHidden,nOut):super(BidirectionalLSTM,self).__init__()self.rnn=nn.LSTM(nIn,nHidden,bidirectional=True)
  • 2024-03-24TensorFlow的研究应用与开发~深度学习
    TensorFlow是谷歌开源的机器学习框架,它的主要目标是让开发者能够轻松地构建和部署机器学习模型。TensorFlow的核心概念是张量(Tensor)和计算图(Graph)。张量是TensorFlow中的基本数据结构,可以看作是多维数组。张量可以是常量(Constant)或变量(Variable)。常量是指在计算图中的固定值,而
  • 2024-03-20Python 深度学习第二版(GPT 重译)(四)
    九、高级计算机视觉深度学习本章涵盖计算机视觉的不同分支:图像分类、图像分割、目标检测现代卷积神经网络架构模式:残差连接、批量归一化、深度可分离卷积可视化和解释卷积神经网络学习的技术上一章通过简单模型(一堆Conv2D和MaxPooling2D层)和一个简单的用例(二进制图像
  • 2024-03-18为 PyTorch 层指定自定义名称
    参考这个问答,有两种方法。第一种,在定义nn.Sequential时传入OrderedDict类型变量。importcollectionsimporttorchmodel=torch.nn.Sequential(collections.OrderedDict([("conv1",torch.nn.Conv2d(1,20,5)),("relu1",tor
  • 2023-12-29pytorch转onnx中关于卷积核的问题
    pytorch导出onnx过程中报如下错误:RuntimeError:Unsupported:ONNXexportofconvolutionforkernelofunknownshape.我报错的部分代码如下:defforward(self,input):n,c,h,w=input.size()s=self.scale_factor#padinput(left,right,top,bott
  • 2023-12-27人工智能大模型原理与应用实战:从UNet到Mask RCNN
    1.背景介绍人工智能(ArtificialIntelligence,AI)是一门研究如何让计算机自主地完成人类任务的学科。在过去的几十年里,人工智能主要关注于规则引擎和知识表示。然而,随着数据量的增加和计算能力的提高,深度学习(DeepLearning)成为人工智能领域的一个热门话题。深度学习是一种通过神经网
  • 2023-12-15Conv1D和Conv2D的区别
    layer=layers.Conv1D(input_shape=(66,5),filters=100,kernel_size=10,padding="same",activation="
  • 2023-11-20基于MTTR——视频图像分割
    1.图像分割目前存在的问题现在的deepCNN能提取图像中很多featuremap,比如图像的纹理、颜色、形状特征,但对于分割任务来说这并不是我们全部需要的,分割任务最理想的是根据边界和形状信息进行识别,如果信息流中包含了很多颜色、纹理可能会导致识别问题。2.该网络提出的解决方法
  • 2023-11-04stressnet
    os.environ["CUDA_VISIBLE_DEVICES"]="0"os.environ["CUDA_VISIBLE_DEVICES"]="0"是Python中的代码,它用于设置环境变量CUDA_VISIBLE_DEVICES的取值为"0"。在深度学习和GPU加速的环境中,CUDA_VISIBLE_DEVICES是NVIDIA的CUDA工具包中的一个环境变量。它用来指定哪些GP
  • 2023-10-07model.save() model. save_weights ()
     model.save_weights('./saved_models/8.h5') ===========================================================================model.save()保存了模型的图结构和模型的参数,保存模型的后缀是.hdf5。model.save_weights()只保存了模型的参数,并没有保存模型的图结构,保存模
  • 2023-09-17《动手学深度学习 Pytorch版》 6.7 填充和步幅
    6.3.1填充虽然我们用的卷积核较小,每次只会丢失几像素,但是如果应用多层连续的卷积层,累积的像素丢失就会很多。解决此问题的方法为填充。填充后的输出形状将为\((n_h-k_h+p_h+1)\times(n_w-k_w+p_w+1)\)importtorchfromtorchimportnndefcomp_conv2d(conv2d,X):X
  • 2023-08-23深度学习(十二)——神经网络:搭建小实战和Sequential的使用
    一、torch.nn.Sequential代码栗子官方文档:Sequential—PyTorch2.0documentation#UsingSequentialtocreateasmallmodel.When`model`isrun,#inputwillfirstbepassedto`Conv2d(1,20,5)`.Theoutputof#`Conv2d(1,20,5)`willbeusedastheinputto
  • 2023-08-216.3 填充和步幅 & 卷积层的输出形状公式
    一.填充1.作用:为了防止丢失边缘像素。如240x240的像素图像,经过10层5x5卷积,变成了200x200像素。可以根据输出形状计算公式(w-k+1)x(h-k+1)计算得出。2.方法:最常用的方法是填充0。如下:3.公式:计算填充原图像后的输出形状假设填充p行(上面填充p/2行,下面填充p/2行),p列。输出大小为:w
  • 2023-08-15卷积层
    卷积层卷积操作torch.nn是对torch.function的封装pytorch官网详细介绍了常用的卷积操作函数:conv1d、conv2d、conv3d等,其中Conv1d针对一维的向量,Conv2d针对二维的向量,Conv3d针对三维的向量。在图像处理中,Conv2d的使用次数较多,因此以conv2d为例说明卷积操作(torch.nn.Conv2d和torc
  • 2023-08-10利用pytorch自定义CNN网络(三):构建CNN模型
    本文是利用pytorch自定义CNN网络系列的第三篇,主要介绍如何构建一个CNN网络,关于本系列的全文见这里。笔者的运行设备与软件:CPU(AMDRyzen™54600U)+pytorch(1.13,CPU版)+jupyter;本文所用到的资源:链接:https://pan.baidu.com/s/1WgW3IK40Xf_Zci7D_BVLRg提取码:12121.如何
  • 2023-08-06步幅与填充——pytorch
    importtorchfromtorchimportnndefcomp_conv2d(conv2d,x):#在维度前面加上通道数和批量大小数1x=x.reshape((1,1)+x.shape)#得到4维y=conv2d(x)#把前面两维去掉returny.reshape(y.shape[2:])#padding填充为1,左右conv2d=nn.Conv2d
  • 2023-08-06实现二维卷积层
    importtorchfromtorchimportnnfromd2limporttorchasd2ldefcorr2d(x,k):"""计算二维互相关运算"""#获取卷积核的高和宽h,w=k.shape#输出的高和宽y=torch.zeros((x.shape[0]-h+1,x.shape[1]-w+1))foriinrange(y.shape[0
  • 2023-07-276.2 图像卷积
    我们定义一个函数,实现图像的卷积操作。 这里X[i:i+h,j:j+w]的用法是把X这个大矩阵中,行数从i到i+h-1,列数从j到j+w-1的一小块给拿出来了,例子如下:A=torch.tensor([[1,1,1,1],[2,2,2,2],[3,3,3,3],[4,4,4,4]])print(A[0:3,1:4])输出结果: 1.卷积层
  • 2023-07-26nn.Conv2d()参数说明、输入输出
    1.参数说明2.输入输出参数计算若没有设置dilation:
  • 2023-06-14InceptionV3代码解析
    读了Google的GoogleNet以及InceptionV3的论文,决定把它实现一下,尽管很难,但是网上有不少资源,就一条一条的写完了,对于网络的解析都在代码里面了,是在原博主的基础上进行修改的,添加了更多的细节,以及自己的理解。总之,是更详细更啰嗦的一个版本,适合初学者。importtensorflowas
  • 2023-05-262023CVPR_Learning a Simple Low-light Image Enhancer from Paired Low-light Instances(PairLLE)无监督
    一.motivation以前的大多数LIE算法使用单个输入图像和几个手工制作的先验来调整照明。然而,由于单幅图像信息有限,手工先验的适应性较差,这些解决方案往往无法揭示图像细节。二.contribution1.提出一个成对低光图像输入(相同内容,不同的曝光度)2.在输入之前进行了一个去噪操作,再
  • 2023-04-14J8、Inception v1算法实战与解析
  • 2023-04-09VGG16模型-tensorflow实现的架构
    importtensorflowastffromtensorflow.keras.modelsimportSequentialfromtensorflow.keras.layersimportInputLayer,Dense,Flatten,Conv2D,MaxPooling2Dfromtensorflow.keras.optimizersimportAdamdefbuild_vgg16(input_shape,num_classes):model