首页 > 其他分享 >为什么局部下降最快的方向就是梯度的负方向?

为什么局部下降最快的方向就是梯度的负方向?

时间:2022-12-28 19:35:22浏览次数:65  
标签:泰勒 梯度 下降 展开式 算法 最快 方向


红色石头的个人网站:​​redstonewill.com​

为什么局部下降最快的方向就是梯度的负方向?_标量

什么是梯度?

对于梯度下降算法(Gradient Descent Algorithm),我们都已经很熟悉了。无论是在线性回归(Linear Regression)、逻辑回归(Logistic Regression)还是神经网络(Neural Network)等等,都会用到梯度下降算法。我们先来看一下梯度下降算法的直观解释:

假设我们位于黄山的某个山腰处,山势连绵不绝,不知道怎么下山。于是决定走一步算一步,也就是每次沿着当前位置最陡峭最易下山的方向前进一小步,然后继续沿下一个位置最陡方向前进一小步。这样一步一步走下去,一直走到觉得我们已经到了山脚。这里的下山最陡的方向就是梯度的负方向。

首先理解什么是梯度?通俗来说,梯度就是表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在当前位置的导数。


∇=df(θ)dθ ∇ = d f ( θ ) d θ

上式中,θ θ 是自变量,f(θ) f ( θ ) 是关于θ θ 的函数,θ θ 表示梯度。

梯度下降算法

如果函数f(θ) f ( θ ) 是凸函数,那么就可以使用梯度下降算法进行优化。梯度下降算法的公式我们已经很熟悉了:


θ=θ0−η⋅∇f(θ0) θ = θ 0 − η ⋅ ∇ f ( θ 0 )

其中,θ0 θ 0 是自变量参数,即下山位置坐标,η η 是学习因子,即下山每次前进的一小步(步进长度),θ θ 是更新后的θ0 θ 0 ,即下山移动一小步之后的位置。

梯度下降算法的公式非常简单!但是”沿着梯度的反方向(坡度最陡)“是我们日常经验得到的,其本质的原因到底是什么呢?为什么局部下降最快的方向就是梯度的负方向呢?也许很多朋友还不太清楚。没关系,接下来我将以通俗的语言来详细解释梯度下降算法公式的数学推导过程。

一阶泰勒展开式

这里需要一点数学基础,对泰勒展开式有些了解。简单地来说,泰勒展开式利用的就是函数的局部线性近似这个概念。我们以一阶泰勒展开式为例:


f(θ)≈f(θ0)+(θ−θ0)⋅∇f(θ0) f ( θ ) ≈ f ( θ 0 ) + ( θ − θ 0 ) ⋅ ∇ f ( θ 0 )

不懂上面的公式?没有关系。我用下面这张图来解释。

为什么局部下降最快的方向就是梯度的负方向?_梯度下降_02

凸函数f(θ) f ( θ ) 的某一小段[θ0,θ] [ θ 0 , θ ] 由上图黑色曲线表示,可以利用线性近似的思想求出f(θ) f ( θ ) 的值,如上图红色直线。该直线的斜率等于f(θ) f ( θ ) 在θ0 θ 0 处的导数。则根据直线方程,很容易得到f(θ) f ( θ ) 的近似表达式为:


f(θ)≈f(θ0)+(θ−θ0)⋅∇f(θ0) f ( θ ) ≈ f ( θ 0 ) + ( θ − θ 0 ) ⋅ ∇ f ( θ 0 )

这就是一阶泰勒展开式的推导过程,主要利用的数学思想就是曲线函数的线性拟合近似。

梯度下降数学原理

知道了一阶泰勒展开式之后,接下来就是重点了!我们来看一下梯度下降算法是如何推导的。

先写出一阶泰勒展开式的表达式:


f(θ)≈f(θ0)+(θ−θ0)⋅∇f(θ0) f ( θ ) ≈ f ( θ 0 ) + ( θ − θ 0 ) ⋅ ∇ f ( θ 0 )

其中,θ−θ0 θ − θ 0 是微小矢量,它的大小就是我们之前讲的步进长度η η ,类比于下山过程中每次前进的一小步,η η 为标量,而θ−θ0 θ − θ 0 的单位向量用v v 表示。则θ−θ0θ−θ0可表示为:


θ−θ0=ηv θ − θ 0 = η v

特别需要注意的是,θ−θ0 θ − θ 0 不能太大,因为太大的话,线性近似就不够准确,一阶泰勒近似也不成立了。替换之后,f(θ) f ( θ ) 的表达式为:


f(θ)≈f(θ0)+ηv⋅∇f(θ0) f ( θ ) ≈ f ( θ 0 ) + η v ⋅ ∇ f ( θ 0 )

重点来了,局部下降的目的是希望每次θ θ 更新,都能让函数值f(θ) f ( θ ) 变小。也就是说,上式中,我们希望f(θ)<f(θ0) f ( θ ) < f ( θ 0 ) 。则有:


f(θ)−f(θ0)≈ηv⋅∇f(θ0)<0 f ( θ ) − f ( θ 0 ) ≈ η v ⋅ ∇ f ( θ 0 ) < 0

因为η η 为标量,且一般设定为正值,所以可以忽略,不等式变成了:


v⋅∇f(θ0)<0 v ⋅ ∇ f ( θ 0 ) < 0

上面这个不等式非常重要!v v 和∇f(θ0)∇f(θ0)都是向量,∇f(θ0) ∇ f ( θ 0 ) 是当前位置的梯度方向,v v 表示下一步前进的单位向量,是需要我们求解的,有了它,就能根据θ−θ0=ηvθ−θ0=ηv确定θ θ 值了。

想要两个向量的乘积小于零,我们先来看一下两个向量乘积包含哪几种情况:

为什么局部下降最快的方向就是梯度的负方向?_梯度下降算法_03

A A 和BB均为向量,α α 为两个向量之间的夹角。A A 和BB的乘积为:


A⋅B=||A||⋅||B||⋅cos(α) A ⋅ B = | | A | | ⋅ | | B | | ⋅ c o s ( α )

||A|| | | A | | 和||B|| | | B | | 均为标量,在||A|| | | A | | 和||B|| | | B | | 确定的情况下,只要cos(α)=−1 c o s ( α ) = − 1 ,即A A 和BB完全反向,就能让A A 和BB的向量乘积最小(负最大值)。

顾名思义,当v v 与∇f(θ0)∇f(θ0)互为反向,即v v 为当前梯度方向的负方向的时候,能让v⋅∇f(θ0)v⋅∇f(θ0)最大程度地小,也就保证了v v 的方向是局部下降最快的方向。

知道vv是∇f(θ0) ∇ f ( θ 0 ) 的反方向后,可直接得到:


v=−∇f(θ0)||∇f(θ0)|| v = − ∇ f ( θ 0 ) | | ∇ f ( θ 0 ) | |

之所以要除以∇f(θ0) ∇ f ( θ 0 ) 的模||∇f(θ0)|| | | ∇ f ( θ 0 ) | | ,是因为v v 是单位向量。

求出最优解vv之后,带入到θ−θ0=ηv θ − θ 0 = η v 中,得:


θ=θ0−η∇f(θ0)||∇f(θ0)|| θ = θ 0 − η ∇ f ( θ 0 ) | | ∇ f ( θ 0 ) | |

一般地,因为||∇f(θ0)|| | | ∇ f ( θ 0 ) | | 是标量,可以并入到步进因子η η 中,即简化为:


θ=θ0−η∇f(θ0) θ = θ 0 − η ∇ f ( θ 0 )

这样,我们就推导得到了梯度下降算法中θ θ 的更新表达式。

总结

我们通过一阶泰勒展开式,利用线性近似和向量相乘最小化的思想搞懂了梯度下降算法的数学原理。也许你之前很熟悉梯度下降算法,但也许对它的推导过程并不清楚。看了本文,你是否有所收获呢?

更多机器学习资源,请关注公众号:AI有道(ID:redstonewill)

为什么局部下降最快的方向就是梯度的负方向?_梯度下降算法_04


标签:泰勒,梯度,下降,展开式,算法,最快,方向
From: https://blog.51cto.com/u_14481745/5976219

相关文章

  • 音视频中的语音信号处理都包括哪些方向?
    随着人工智能浪潮的到来,语音行业进入飞速发展时期,各大企业都在高薪寻觅从事语音技术的专业人才。然而,语音信号处理包括语音增强、回声消除、麦克风阵列信号处理等多个研究方......
  • 如何获得物体的主要方向
    问题来源为网友提供的资料,原文地址为:《ObjectOrientation,PrincipalComponentAnalysis&OpenCV》问题描述:对于这样的图像(2副,采用了背投光),如何获得上面工件的主要方向......
  • Go 快速入门指南 - 通道方向和关闭通道
    概述建议先阅读 阻塞通道 和 非阻塞通道 小节。在前面的两个小节中,为了最小化代码达到演示效果,省略了 ​​关闭通道​​ 的步骤,正确的做法应该是在通道使用完成后关......
  • 模拟IC设计中具体小方向
    模拟IC设计主要方向:分类一AD/DA:高精度,高速PLL:低功耗,全数字,Ultra-jitter电源管理:DC-DCmemory:GDDRx,LPDDRx,HBMxSerdes:56G,112G,PCIeGen5/6,USB4.0…发展前景:AD/DA>Se......
  • Go 快速入门指南 - 通道方向和关闭通道
    概述建议先阅读 阻塞通道 和 非阻塞通道 小节。在前面的两个小节中,为了最小化代码达到演示效果,省略了 关闭通道 的步骤,正确的做法应该是在通道使用完成后关闭。......
  • 几种渐变CSS写法:线性渐变(Linear Gradients)- 向下/向上/向左/向右/对角方向径向渐变(Rad
    CSS3渐变(gradients)可以让你在多个指定的颜色之间显示两个过渡。以前,你使用图像的效果减少了这些。但是,通过CSS3实现(实现渐变,实现下载)的效果。必须使用的效果,你可以在使用......
  • PyTorch 深度学习实践(梯度下降算法)
    梯度下降上课代码importnumpyasnpimportmatplotlib.pyplotaspltx_data=[1.0,2.0,3.0]y_data=[2.0,4.0,6.0]w=1.0defforward(x):returnx*wdefcost(xs,y......
  • RepOpt-VGG:梯度参数化的开创
    ​本文来自公众号“AI大道理”​YOLov6的量化问题:yolov6在结构中大量使用了重参数结构,导致数据分布过差,PTQ精度急剧下降。另外,重参数化结构网络无法直接使用......
  • AI的进化方向,正在被改写
    文|智能相对论作者|沈浪人工智能产业的创新焦点已经发生了转移,过去大多谈的是应用创新,如今一场面向底层的技术普惠创新正在持续推进,成为新华三等头部AI厂商相互角力的关键。......
  • Android平台GB28181设备接入模块摄像头采集方向不对怎么办?
    技术背景我们在做Android平台GB28181设备接入模块的时候,有开发者提到这样的诉求:他们的智能头盔、执法记录仪等设备,采集到的图像,是旋转了90、180甚至270°的,设备本身无法针对......