首页 > 其他分享 >Backpropagation

Backpropagation

时间:2024-02-26 19:46:21浏览次数:26  
标签:prime frac sigmoid neuron Backpropagation pass partial

backpropagation(反向传播)在计算gradient的vector时可以有效率地把vector计算出来

我们先考虑一个neuron

考虑链式法则,现计算$\frac{\partial z}{\partial w}$,计算较为简单,规律发现就是input

以上步骤就叫forward pass,接下来介绍backward pass,即计算$\frac{\partial C}{\partial z}$,这较为困难

其中$\frac{\partial a}{\partial z}$就是sigmoid函数的导数,已知

而$\frac{\partial C}{\partial a}$可以通过链式法得到,其中的$\frac{\partial z^{\prime}}{\partial a}$和$\frac{\partial z^{\prime \prime}}{\partial a}$易求

化简得到下式

现在我们假设一个neuron(用三角形表示),又因为sigmoid确定的话,它的导数在forward pass时候就确定是一个常数,如下

 

标签:prime,frac,sigmoid,neuron,Backpropagation,pass,partial
From: https://www.cnblogs.com/ybx-tih/p/18035033

相关文章