• 2024-07-02参考资料
    pytorch训练中的一些优化手段https://blog.csdn.net/deephub/article/details/139622843pytorch中python和底层C++tensor对象关系https://pytorch.org/cppdocs/notes/tensor_basics.html#:~:text=TheATentensorlibrarybackingPyTorchisa,APIisgenericanddoesnot
  • 2024-07-02tensor版CBOW
    小小技能1key=['a','b','c']value=[1,2,3]vocab=dict(zip(key,value))print(vocab)运行效果:{'a':1,'b':2,'c':3}2key=['a','b','c']vocab=dict(zip(key,ran
  • 2024-07-01《昇思25天学习打卡营第2天 | 张量 Tensor》
    《昇思25天学习打卡营第2天|张量Tensor》《昇思25天学习打卡营第2天|张量Tensor》《昇思25天学习打卡营第2天|张量Tensor》什么是张量(Tensor)张量的创建方式根据数据直接生成从NumPy数组生成使用init初始化器构造张量继承另一个张量的属性,形成新的张量张量的属
  • 2024-06-30《昇思25天学习打卡营第3天 | 数据集 Dataset》
    《昇思25天学习打卡营第3天|数据集Dataset》《昇思25天学习打卡营第3天|数据集Dataset》《昇思25天学习打卡营第3天|数据集Dataset》什么是数据集MindSpore的数据集数据集加载数据集迭代数据集常用操作mapbatch自定义数据集可随机访问数据集可迭代数据集生成
  • 2024-06-30动手学深度学习(Pytorch版)代码实践 -计算机视觉-47转置卷积
    47转置卷积importtorchfromtorchimportnnfromd2limporttorchasd2l#输入矩阵X和卷积核矩阵K实现基本的转置卷积运算deftrans_conv(X,K):h,w=K.shapeY=torch.zeros((X.shape[0]+h-1,X.shape[1]+w-1))foriinrange(X.shape
  • 2024-06-24torch.sub
    torch.sub是PyTorch中用于执行逐元素减法的函数。它可以用于张量之间的减法运算,或者用来从一个张量中减去一个标量。以下是一些使用torch.sub的示例:示例1:两个张量之间的减法importtorch#创建两个张量tensor1=torch.tensor([5.0,6.0,7.0])tensor2=torch.tens
  • 2024-06-21Transforms的使用
    Transform的作用把图片经过Transforms的一些函数之后就会对图片进行一些变化。比如,resize就是改变其大小,totensor就是把图片PIL或者numpy类型转化为Tensor类型。Transforms的结构及和用法totensor的使用Transforms下的toTensor是一个对象,我们需要先实例化一个对象之后再通过
  • 2024-06-21【MindSpore学习打卡】初学教程-03张量Tensor-理解MindSpore中的张量(Tensor)操作
    03张量Tensor-理解MindSpore中的张量(Tensor)操作在深度学习领域,张量(Tensor)是最基本的数据结构之一。它不仅可以表示标量、向量和矩阵,还可以表示更高维度的数据。张量在神经网络的构建和训练中扮演着至关重要的角色。在MindSpore中,张量是网络运算的基本单位。本篇博客将详
  • 2024-06-21# 机器学习day05
    张量元素类型转换data.type(torch.DoubleTensor)data=torch.full([2,3],10)print(data.dtype)#将data元素类型转换为float64类型data=data.type(torch.DoubleTensor)print(data.dtype)#转换为其他类型#data=data.type(torch.ShortTensor)#data=
  • 2024-06-20昇思25天学习打卡营第2天|张量、数据集和数据变换
    张量Tensor张量(Tensor)是一个可用来表示在一些矢量、标量和其他张量之间的线性关系的多线性函数,这些线性关系的基本例子有内积、外积、线性映射以及笛卡儿积。其坐标在
  • 2024-06-19将强化学习重新引入 RLHF
    我们很高兴在TRL中介绍RLOO(REINFORCELeaveOne-Out)训练器。作为一种替代PPO的方法,RLOO是一种新的在线RLHF训练算法,旨在使其更易于访问和实施。特别是,RLOO需要的GPU内存更少,并且达到收敛所需的挂钟时间也更短。如下面的图表所示:
  • 2024-06-19【diffusers 极速入门(二)】如何得到扩散去噪的中间结果?Pipeline callbacks 管道回调函数
    本文是对HuggingFaceDiffusers文档中关于回调函数的翻译与总结,:管道回调函数在管道的去噪循环中,可以使用callback_on_step_end参数添加自定义回调函数。该回调函数在每一步结束时执行,并修改管道属性和变量,以供下一步使用。这在动态调整某些管道属性或修改张量变量时非
  • 2024-06-19Pytorch:合并分割
    1前言记录一下Pytorch中对tensor合并分割的方法2合并Pytorch中对tensor合并的方法有两种:torch.cat()torch.stack()其中,torch.cat()直接将两个变量进行拼接,不会产生新的维度而torch.stack()则会将tensor堆叠,产生新的维度tensor1=torch.randn(2,3)tensor2=torch.rand
  • 2024-06-12pytorch--Matrix相关
    pytorch–Matrix相关1.矩阵生成Tensor,即张量,是PyTorch中的基本操作对象,可以看做是包含单一数据类型元素的多维矩阵。从使用角度来看,Tensor与NumPy的ndarrays非常类似,相互之间也可以自由转换,只不过Tensor还支持GPU的加速。1.1创建一个没有初始化的矩阵x=torch.empty(2,
  • 2024-06-08算法金 | 这次终于能把张量(Tensor)搞清楚了!
    大侠幸会,在下全网同名[算法金]0基础转AI上岸,多个算法赛Top[日更万日,让更多人享受智能乐趣]1.张量(Tensor)基础概念1.1张量的定义与重要性张量是深度学习中用于表示数据的核心结构,它可以视为多维数组的泛化形式。在机器学习模型中,张量用于存储和变换数据,是实现
  • 2024-06-08保姆级教程:《Pytorch 实战宝典》来了
    Pytorch是目前常用的深度学习框架之一,比起TF的框架环境配置不兼容,和Keras由于高度封装造成的不灵活,PyTorch无论是在学术圈还是工业界,都相当占优势。不夸张地说,掌握了PyTorch,就相当于走上了深度学习、机器学习、大模型的快车道。它凭借着对初学者的友好性、灵活性,
  • 2024-06-05实验18-使用TensorFlow完成视频物体检测
    image_object_detection.pyimportnumpyasnpimporttensorflowastfimportmatplotlib.pyplotaspltfromPILimportImageimportlabel_map_utilimportvisualization_utilsasvis_utilPATH_TO_CKPT='ssd_mobilenet_v1_coco_2018_01_28/frozen_inferen
  • 2024-06-05深度学习 - PyTorch简介
    基础知识1.PyTorch简介PyTorch的特点和优势:动态计算图、易用性、强大的社区支持、与NumPy兼容。安装和环境配置:安装和验证PyTorch:pipinstalltorchtorchvision验证安装:importtorchprint(torch.__version__)运行结果:1.9.0#具体版本可能不同配置虚拟
  • 2024-06-04什么是LLM大模型训练,详解Transformer结构模型
    本文分享自华为云社区《LLM大模型学习必知必会系列(四):LLM训练理论篇以及Transformer结构模型详解》,作者:汀丶。1.模型/训练/推理知识介绍深度学习领域所谓的“模型”,是一个复杂的数学公式构成的计算步骤。为了便于理解,我们以一元一次方程为例子解释:y=ax+b该方程意味
  • 2024-06-03深度学习--风格迁移Gram matric的计算--83
    目录在计算机视觉中,Gram矩阵常用于衡量图像的风格特征。给定一个特征图(例如,卷积层的输出),Gram矩阵是该特征图的内积。在TensorFlow中,你可以使用tf.linalg.einsum来计算Gram矩阵。以下是一个计算Gram矩阵的TensorFlow实现样例:importtensorflowastfdefgram_matrix(input_ten
  • 2024-05-30PyTorch学习(8):PyTorch中Tensor的合并于拆分(torch.cat, torch.stack, torch.trunk, torch.split)
    1.写在前面       在使用PyTorch执行深度学习开发时,经常会用到对Tensor的合并于拆分操作。如我们在使用CSP时,有时候会需要将Tensor拆分成两部分,其中一部分进行进行CrossStage操作,另一部分执行多重卷积操作,这个时候我们就会用到四个典型的接口,分别是torch.cat,torch
  • 2024-05-29损失函数代码
    这个是从代码层面,详细了解损失函数!CrossEntropyLoss importtorchimporttorch.nnasnn#实际中遇到的outputs=torch.tensor([[0.5870,0.4130],[0.6517,0.3483],[0.4455,0.5545],[0.4
  • 2024-05-28pytorch基本操作
    Referredtohttps://www.bilibili.com/video/BV17X4y1H7dK/?spm_id_from=333.337.search-card.all.click&vd_source=d312c66700fc64b66258a994f0a117adimporttorchimportnumpyasnptorch.cuda.is_available()True1BasicOperation1.1createtensor#from
  • 2024-05-28LLM 大模型学习必知必会系列(四):LLM训练理论篇以及Transformer结构模型详解
    LLM大模型学习必知必会系列(四):LLM训练理论篇以及Transformer结构模型详解1.模型/训练/推理知识介绍深度学习领域所谓的“模型”,是一个复杂的数学公式构成的计算步骤。为了便于理解,我们以一元一次方程为例子解释:y=ax+b该方程意味着给出常数a、b后,可以通过给出的x求出
  • 2024-05-27每天五分钟深度学习框架pytorch:tensor张量的维度转换大全
    本文重点在深度学习中比较让人头疼的一点就是矩阵的维度,我们必须构建出符合神经网络维度的矩阵,只有将符合要求的矩阵放到神经网络中才可以运行神经网络,本节课程我们将学习以下tensor中维度的变化。view和shapeView和shape,这两个方法可以完成维度的变换操作,而且使用方法是一