https://www.cnblogs.com/wangguchangqing/p/10521330.html 方向导数与梯度
方向导数:函数在某一点上沿一方向的变化率
对于取极限部分,在比上ρ后出现fxcosθ和fysinθ,对这两个函数的出现可以使用三角函数推导,出tan²θ后转化即可推出。
梯度未某函数的连续偏导
对于方向导数和梯度的关系(点积为两向量模长乘以夹角余弦)
函数沿着梯度的方向增长最快。
反向传播算法(Backpropagation BP算法)
step1 计算误差 计算出神经网络自输出逆向求前输入的误差
step2 更新权重
分离计算(动手学深度学习)
这里为了方便理解,假设y = f(x) z = g(x,y)。若想计算关于x的梯度,但希望将y视为一个常数,并且只考虑x在y被计算后发挥的作用。
分离y来返回一个新变量u,该变量与y具有相同的值,但丢弃如何计算y的信息。(u = y.detach())即梯度不会向后流经到u到x,即不会对y = f(x)再次进行求导(个人理解)