首页 > 其他分享 >梯度下降法课后小题

梯度下降法课后小题

时间:2023-09-12 22:47:28浏览次数:43  
标签:迭代 cdot 梯度 align nabla 下降 步长 课后 lambda

梯度下降法解决优化的问题

  • 考虑优化问题

    \[minf(x) = x_1^2 + 2x_2^2 + 4 \]

1. 写出梯度算法求解该问题的迭代公式,详细阐述迭代公式每项的意义。

\[f(x)= x_1^2 + 2x_2^2 + 4 \tag{1} \]

\[\frac {\partial f(x)} {\partial x_1} = 2x_1 , \frac {\partial f(x)} {\partial x_2} = 4x_2 \tag{2} \]

\[\nabla f = (2x_1,4x_2,0) \tag{3} \]

迭代公式:

\[x_{k + 1} = x_k - \lambda \nabla f(x_k) \tag{4} \]

意义

​ 其中,\(f(x_k)\)为当前点,\(\lambda\)为步长,\(\nabla f(x_k)\)为函数\(f(x)\)在当前点的梯度。该式子表示从当前点\(f(x_k)\),沿着\(\nabla f(x_k)\)的方向,以步长为\(\lambda\)的速度逼近。

2.变量\(X = (x_1,x_2)^T\),迭代初始点\(X_0 = (1,2)^T\)以及步长\(0.1\),完成三步迭代运算。

带入公式\((5)\)得:

\[\begin{align*} X_{k + 1} = X_k - \lambda\nabla f(X_k) \end{align*} \]

第一步迭代:

\[\begin{align*} X_1 &= X_0 - \lambda \nabla f(X_0)\\ &= (1,2) - 0.1 \times (2 \cdot 1,4 \cdot 2)\\ &= (0.8,1.2) \end{align*} \]

第二步迭代:

\[\begin{align*} X_2 &= X_1 - \lambda \nabla f(X_1)\\ &= (0.8,1.2) - 0.1 \times (2 \cdot 0.8,4 \cdot 1.2)\\ &= (0.64,0.72) \end{align*} \]

第三步迭代:

\[\begin{align*} X_3 &= X_2 - \lambda \nabla f(X_2)\\ &= (0.64,0.72) - 0.1 \times (2 \cdot 0.64,4 \cdot 0.72)\\ &= (0.512,0.576) \end{align*} \]

3. 分析迭代初值以及步长对该问题的影响,讨论梯度法的优势及不足。

影响:

​ 初值选的合理可能迭代的快且能够到达全局最优解。

​ 初值若选的不合理可能迭代的速度慢,而且只能求得局部最优解。

​ 步长的大小影响迭代的速度。

​ 若步长太大,可能迭代结果震荡过大,无法找到最优解。若步长太小,迭代次数会很多,速度会很慢,容易落在相对极小值。因此最好随着迭代调整。

优势与不足重点在于在什么情境下和什么比较。

优势:

​ 思想较为简单,可拓展运用范围较广。

不足:

​ 梯度下降法迭代可能会收敛到局部最优解而不是全局最优解。

标签:迭代,cdot,梯度,align,nabla,下降,步长,课后,lambda
From: https://www.cnblogs.com/value0/p/17698039.html

相关文章

  • 9.11课后题和动脑动手问题
    1. 第一个答案:类第二个答案:成员变量和成员方法第三个答案:可以强制转化,但是会造成误差第四个答案:不是,String是一个类第五个答案:静态,全局的标志 ......
  • 9.11课后动手实践题
    1.开学考试规范写packagekaixuekaoshi1;//班级:2205-2//学号:20224082//姓名:艾鑫publicclassWarehouseInformation{privateStringitemno;//商品编号privateStringitemname;//商品名称privateStringsuppliername;//供货商名称privateString......
  • 深度学习基础之梯度下降
    1.引言梯度下降是一种用于最小化(或最大化)损失函数的优化算法。它是机器学习和深度学习中的一个关键概念,通常用于调整学习算法中的参数。梯度下降背后的核心思想是迭代调整参数以最小化损失函数。它的工作原理是计算损失函数相对于每个参数的梯度,并在减少损失函数的方向上更新参数......
  • 【9月摸鱼计划】mos开关,下降沿有尖峰,是不是寄生电容放电太慢了,加个反向肖特基会不会有
    MOS开关的下降沿出现尖峰,可能是由于寄生电容放电过慢或其他电路因素的影响。添加反向肖特基二极管可能会对改善尖峰有所作用,但具体效果需要考虑以下因素:寄生电容:寄生电容是电路中不可避免的部分,它们会在电压变化时进行充电和放电。如果寄生电容较大,放电时间会变长,从而导致尖峰的出......
  • 机器学习算法原理实现——使用梯度下降求解Lasso回归和岭回归
    本文本质上是在线性回归的基础上进行扩展,加入了正则化而已!机器学习算法原理实现——使用梯度下降求解线性回归 正则化在机器学习中是一种防止过拟合的技术,它通过在损失函数中添加一个惩罚项来限制模型的复杂度。举一个实际的例子,假设你正在训练一个机器学习模型来预测房价。你......
  • 机器学习算法原理实现——使用交叉熵、梯度下降求解逻辑回归
    交叉熵的定义以及和熵的区别?   交叉熵是衡量两个概率分布之间的差异的一个度量。在机器学习和深度学习中,尤其是分类问题,交叉熵常被用作损失函数。交叉熵度量的是实际分布(标签)与模型预测之间的不一致程度。 这个值越小,模型的预测与真实分布越接近。完美的预测会有交......
  • 梯度上升算法
    用梯度上升算法进行Logistic回归$w=w+\nabla{f(w)}$对应代码如下importmatplotlib.pyplotaspltimportnumpyasnpfromsklearn.datasetsimportmake_classificationdata_1,labels=make_classification(n_samples=400,n_features=2,n_informative=2,n_redundant=0,n_......
  • 梯度下降算法入门
    提到梯度下降我们知道梯度下降算法是很多机器学习算法、深度学习算法的基础。首先我们需要明确一些概念什么是梯度:梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值,即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。梯度的数......
  • GO语言工程实践课后作业
    项目背景该项目是一个基于Gin框架开发的消息板应用,提供发布话题和回复功能。GinGin是一个基于Go语言的轻量级Web框架,它提供了快速构建高性能Web应用程序的工具和功能。以下是Gin框架的一些特点和使用方法:特点:快速:Gin是一个非常快速的框架,因为它使用了Radix树路由和高......
  • 监督学习算法中梯度提升决策树(Gradient Boosting Decision Trees)
    梯度提升决策树(GradientBoostingDecisionTrees,简称GBDT)是一种监督学习算法,它是以决策树为基础分类器的集成学习方法。GBDT通过迭代地训练多个弱分类器(决策树),每个弱分类器都在前一个弱分类器的残差上进行训练,从而逐步减小残差,最终将多个弱分类器组合成一个强分类器。具体而言,GB......