• 2024-03-20Pytorch | Tutorial-05 autograd 自动微分
    这是对Pytorch官网的Tutorial教程的中文翻译。在训练神经网络时,最常用的算法是反向传播。在该算法中,根据损失函数相对于给定参数的梯度来调整参数(模型权重)。为了计算这些梯度,PyTorch有一个名为 torch.autograd 的内置微分引擎。它能自动计算任何计算图的梯度。考虑最
  • 2024-01-04深度解析 PyTorch Autograd:从原理到实践
    本文深入探讨了PyTorch中Autograd的核心原理和功能。从基本概念、Tensor与Autograd的交互,到计算图的构建和管理,再到反向传播和梯度计算的细节,最后涵盖了Autograd的高级特性。关注TechLead,分享AI全维度知识。作者拥有10+年互联网服务架构、AI产品研发经验、团队管理经
  • 2023-05-11Pytorch语法——torch.autograd.grad
    Thetorch.autograd.gradfunctionisapartofPyTorch'sautomaticdifferentiationpackageandisusedtocomputethegradientsofgivenoutputswithrespecttogiveninputs.Thisfunctionisusefulwhenyouneedtocomputegradientsexplicitly,rathe
  • 2022-12-26Pytorch 动态图, Autograd, grad_fn详解
    Pytorch动态图Autogradgrad_fn详解Autogradrequire_grad具有传递性,会将其结果也引入计算图中requires_grad iscontagious.Itmeansthatwhena Tensor iscre
  • 2022-12-23几个例子帮你梳理PyTorch知识点(张量、autograd)
    因为我最近想学Pytorchlightning,重构一下之前的代码,所以回来梳理一下Pytorch的语法,好进行下一步学习,所以从头重新回顾一下Pytorch。这个文章是通过几个简单例子帮大家回顾
  • 2022-12-01torch.autograd.Function 用法及注意事项
    众所周知,作为深度学习框架之一的PyTorch和其他深度学习框架原理几乎完全一致,都有着自动求导机制,当然也可以说成是自动微分机制。有些时候,我们不想要它自带的求导机制,需要