• 2024-10-22十三、PyTorch基础:Tensor和Autograd
    1、Tensor  Tensor,又名张量,是Theano、TensorFlow、Torch和MxNet中重要的数据结构。从工程角度来讲,可简单地认为它就是一个数组,且支持高效的科学计算。它可以是一个数(标量)、一维数组(向量)、二维数组(矩阵)和更高维的数组(高阶数据)。Tensor和Numpy的ndarrays类似,但PyTorch的tensor支
  • 2024-09-07Pytorch相关(第六篇)
    如何理解torch.autograd.Function中forward和backward?torch.autograd.Function 是PyTorch提供的一个高级接口,用于定义自定义的自动梯度计算。使用 torch.autograd.Function 可以创建完全自定义的操作,控制前向和反向传播的具体计算步骤。下面是如何理解和使用 torch.autogra
  • 2024-03-20Pytorch | Tutorial-05 autograd 自动微分
    这是对Pytorch官网的Tutorial教程的中文翻译。在训练神经网络时,最常用的算法是反向传播。在该算法中,根据损失函数相对于给定参数的梯度来调整参数(模型权重)。为了计算这些梯度,PyTorch有一个名为 torch.autograd 的内置微分引擎。它能自动计算任何计算图的梯度。考虑最
  • 2024-01-04深度解析 PyTorch Autograd:从原理到实践
    本文深入探讨了PyTorch中Autograd的核心原理和功能。从基本概念、Tensor与Autograd的交互,到计算图的构建和管理,再到反向传播和梯度计算的细节,最后涵盖了Autograd的高级特性。关注TechLead,分享AI全维度知识。作者拥有10+年互联网服务架构、AI产品研发经验、团队管理经
  • 2023-05-11Pytorch语法——torch.autograd.grad
    Thetorch.autograd.gradfunctionisapartofPyTorch'sautomaticdifferentiationpackageandisusedtocomputethegradientsofgivenoutputswithrespecttogiveninputs.Thisfunctionisusefulwhenyouneedtocomputegradientsexplicitly,rathe
  • 2022-12-26Pytorch 动态图, Autograd, grad_fn详解
    Pytorch动态图Autogradgrad_fn详解Autogradrequire_grad具有传递性,会将其结果也引入计算图中requires_grad iscontagious.Itmeansthatwhena Tensor iscre
  • 2022-12-23几个例子帮你梳理PyTorch知识点(张量、autograd)
    因为我最近想学Pytorchlightning,重构一下之前的代码,所以回来梳理一下Pytorch的语法,好进行下一步学习,所以从头重新回顾一下Pytorch。这个文章是通过几个简单例子帮大家回顾
  • 2022-12-01torch.autograd.Function 用法及注意事项
    众所周知,作为深度学习框架之一的PyTorch和其他深度学习框架原理几乎完全一致,都有着自动求导机制,当然也可以说成是自动微分机制。有些时候,我们不想要它自带的求导机制,需要