首页 > 其他分享 >Machine Learning - 梯度下降

Machine Learning - 梯度下降

时间:2024-05-01 23:23:33浏览次数:44  
标签:frac 梯度 下降 Machine 算法 Learning partial

一、梯度下降:目的是为了寻找到最合适的 $w$ 和 $b$ ,让成本函数的值最小

\[w = w - α\frac{\partial J(w,b)}{\partial w} \]

\[b = b - α\frac{\partial J(w,b)}{\partial b} \]

    其中 \(α\) 的值通常在 \(0 - 1\) 之间,用于控制梯度下降算法的幅度。\(α\) 太大,会造成发散现象,\(α\) 太小,会造成收敛速度太慢。

二、批梯度下降算法(BSD,Bash Gradient descent) $$\frac{\partial J(w, b)}{\partial w_j} = \sum_{i=1}^{n} (h_{(w,b)}(x^{(i)}) - y^{(i)})x_j^{(i)}$$ $$\frac{\partial J(w, b)}{\partial b_j} = \sum_{i=1}^{n} (h_{(w,b)}(x^{(i)}) - y^{(i)})$$ $$w_j' = w_j - α\frac{\partial J(w,b)}{\partial w_j}$$ $$b_j' = b_j - α\frac{\partial J(w,b)}{\partial b_j}$$      当我们使用该算法时,每对 $w$ 和 $b$ 计算一次(迭代一次),均要使用到整个数据集。即每次确定 $f$ 的方向时,都用到了整个数据集。
     优点:只要 $α$ 选择合适,最终一定会计算得到最优的 $w$ 和 $b$ 。
     缺点:当数据集忒大的时候,这个工程量可想而知,very very 大。所以不适合大数据集。

标签:frac,梯度,下降,Machine,算法,Learning,partial
From: https://www.cnblogs.com/coder00/p/18169792

相关文章

  • Reflexion: Language Agents with Verbal Reinforcement Learning
    发表时间:2023(NeurIPS2023)文章要点:文章提出Reflexion框架,通过交互的方式获得反馈,并变成细致的语言feedback的形式作为下一轮的prompt,以此强化languageagents的能力,同时避免了更新大模型的参数。这样的好处有1)轻量,不需要finetuneLLM,2)feedback相比一个reward信号更加细致,3)充分......
  • 【Python】Q-Learning处理CartPole-v1
    上一篇配置成功gym环境后,就可以利用该环境做强化学习仿真了。这里首先用之前学习过的qlearning来处理CartPole-v1模型。CartPole-v1是一个倒立摆模型,目标是通过左右移动滑块保证倒立杆能够尽可能长时间倒立,最长步骤为500步。模型控制量是左0、右1两个。模型状态量为下面四个:......
  • 论文解读(MAML)《Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks
    Note:[wechat:Y466551|可加勿骚扰,付费咨询]论文信息论文标题:Model-AgnosticMeta-LearningforFastAdaptationofDeepNetworks论文作者:ChelseaFinn、PieterAbbeel、SergeyLevine论文来源:2017 论文地址:download 论文代码:download视屏讲解:click1-摘要我们提出......
  • 次梯度算法的收敛性
    次梯度算法: 梯度下降法的迭代格式为$$x_{k+1}=x_k-\alpha_k\nablaf(x_k)$$ 但是对于不可微的凸函数,梯度并不存在,于是使用此梯度算法: $$x_{k+1}=x_k-\alpha_kg_k)$$其中$g_k\in\partialf(x_k)$次梯度算法的收敛性证明:假设:$f$是凸函数且存在最小值点$f^*$,且是$G-$利普西茨连......
  • 梯度下降法的两个收敛性证明
    **梯度下降法:** 对于无约束最优化问题:$$\mathop{min}_{x}f(x)$$其中$f$是可微函数,梯度下降法的更新方式如下: $$x_{k+1}=x_k-\alpha_k\nablaf(x_k)$$ 步长$\alpha_k$有多种选择方式,普通的梯度法就选择固定步长$\alpha$。 下面介绍固定步长的梯度下降法在凸函数以及强凸函数......
  • amCharts粒状梯度柱形图
    代码案例<!DOCTYPEhtml><html><head><scriptsrc="https://cdn.amcharts.com/lib/5/index.js"></script><scriptsrc="https://cdn.amcharts.com/lib/5/xy.js"></script><scriptsrc=&qu......
  • 论文笔记-Machine learning based flow regime recognition in helically coiled tube
    对象:进行了螺旋线圈中的自动两相流模式识别方法:X射线照相的空隙率测量数据+聚类+KNN、RF、SVM目标:模式识别关注特征:结果:聚类分类:模型是随机森林(RF)分类器、KNN分类器和SVM(参见第1节)。为了优化超参数并估计分类器精度,所有模型均采用嵌套5×5交叉验证方案,如图1所示。......
  • 论文笔记-Modeling of dynamic characteristic of particle in transient gas–solid
    对象:气固两相流+数值模拟方法:RCNN=RNN+CNN目标:学习颗粒流的时间和空间不均匀性并预测颗粒动态关注特征:关注颗粒不均匀性对颗粒动力学的独特影响,旨在提出一种基于机器学习的方法来建模颗粒不均匀性和颗粒动力学之间的映射结果:R-CNN模型的预测精度用1-9个时间步长(即1-9ms)的各......
  • 《A Discriminative Feature Learning Approach for Deep Face Recognition》阅读笔记
    论文标题《ADiscriminativeFeatureLearningApproachforDeepFaceRecognition》一种用于深度人脸识别的判别性特征学习方法作者YandongWen、KaipengZhang、ZhifengLi和YuQiao来自深圳市计算机视觉与专利重点实验室、中国科学院深圳先进技术研究院和香港中文大学......
  • 论文笔记-Two-phase flow regime identification based on the liquid-phase velocity
    对象:液相速度信息方法:CNN、LSTM、SVM目标:实现了水平管道内两相流态识别关注特征:从速度时间序列数据中提取的统计特征:均值、均方根和功率谱密度、最大速度比和最大速度差比结果:SVM-93.1%,CNN-94%,LSTM-不佳73.3%LSTM:总共使用了300秒的速度数据,然后将其分为180秒用于训练和......