首页 > 其他分享 >SciTech-BigDataAIML-Adam动量自适应的梯度快速收敛

SciTech-BigDataAIML-Adam动量自适应的梯度快速收敛

时间:2024-04-19 18:55:52浏览次数:14  
标签:end 迭代 ssum gsum BigDataAIML Adam SciTech opts out

http://faculty.bicmr.pku.edu.cn/~wenzw/optbook/pages/stograd/Adam.html
版权声明
此页面为《最优化:建模、算法与理论》、《最优化计算方法》配套代码。 代码作者:文再文、刘浩洋、户将,代码整理与页面制作:杨昊桐。

Adam 算法
考虑优化问题:

minx∈Rnf(x)=1N∑i=1Nfi(x).
Adam 算法本质上是在 RMSProp 的基础上增加了动量项,其利用梯度的一阶矩记录动量

Sk=ρ1Sk−1+(1−ρ)gk,
记录梯度的二阶矩(与 RMSProp 相同)

Mk=ρ2Mk−1+(1−ρ)gk⊙gk,
并进行修正: Sk^=Sk1−ρk1
, Mk^=Mk1−ρk2
。 利用修正的一阶矩作为下降方向,并且利用修正的二阶矩来逐分量调整步长,其迭代格式为

xk+1=xk−αMk+ϵ1n−−−−−−−−√⊙Sk.
目录
初始化和迭代准备
迭代主循环
参考页面
版权声明
初始化和迭代准备
输入信息:迭代初始值 x0 ,数据集大小 N ,样本梯度计算函数 pgfun,目标函数值与梯度计算函数 fun 以及提供算法参数的结构体 opts 。

输出信息:迭代得到的解 x 和包含迭代信息的结构体 out 。

out.fvec :迭代过程中的目标函数值信息
out.nrmG :迭代过程中的梯度范数信息
out.epoch :迭代过程中的时期 (epoch)信息
function [x,out] = Adam(x0,N,pgfun,fun,opts)
从输入的结构体 opts 中读取参数或采取默认参数。

opts.maxit :最大迭代次数
opts.alpha :步长
outs.thres :保证梯度分量累计严格为正的小量
opts.rho1 :一阶矩累计的权重值
opts.rho2 :二阶矩累计的权重值
opts.batchsize :随机算法的批量大小
opts.verbose :不小于 1 时输出每步迭代信息,否则不输出
if ~isfield(opts, 'maxit'); opts.maxit = 5000; end
if ~isfield(opts, 'alpha'); opts.alpha = 1e-3; end
if ~isfield(opts, 'thres'); opts.thres = 1e-7; end
if ~isfield(opts, 'rho1'); opts.rho1 = 0.9; end
if ~isfield(opts, 'rho2'); opts.rho2 = 0.999; end
if ~isfield(opts, 'batchsize'); opts.batchsize = 10; end
if ~isfield(opts, 'verbose'); opts.verbose = 1; end
以 x0 为迭代初始点。 计算初始点处的目标函数值和梯度,记初始时刻时期 (epoch) 为 0。

x = x0;
out = struct();
[f,g] = fun(x);
out.fvec = f;
out.nrmG = norm(g,2);
out.epoch = 0;
gsum 记录一阶矩,|ssum| 记录二阶矩。\(\rho_1\), ρ2
分别为一阶矩和二阶矩的衰减率。 count 用于计算时期(epoch)。

gsum = zeros(size(x));
ssum = gsum;
rho1 = opts.rho1;
rho2 = opts.rho2;
count = 1;
迭代主循环
Adam 的迭代循环,以 opts.maxit 为最大迭代次数。

for k = 1:opts.maxit
等概率地从 {1,2,…,N}
中选取批量 sk
记录在 idx 之中,批量大小为 opts.batchsize 。计算对应的样本的梯度。

idx = randi(N,opts.batchsize,1);
g = pgfun(x,idx);

更新一阶、二阶矩累计,并进行修正。 利用修正的一阶矩和二阶矩对 x
进行更新。

ssum = rho1*ssum +  (1 - rho1)*g;
gsum = rho2*gsum + (1 - rho2)*(g.*g);
ssum_mod = ssum/(1 - rho1^k);
gsum_mod = gsum/(1 - rho2^k);

x = x - opts.alpha./sqrt(gsum_mod + opts.thres).*ssum_mod;

每当参与迭代的总样本次数超过数据集的总样本时,记为一个时期 (epoch)。每一个时期, 记录当前的目标函数值和梯度范数,并令时期计数加一。

if k*opts.batchsize/N >= count
    [f,g] = fun(x);
    out.fvec = [out.fvec; f];
    out.nrmG = [out.nrmG; norm(g,2)];
    out.epoch = [out.epoch; k*opts.batchsize/N];
    count = count + 1;
end

end
end

数。

for k = 1:opts.maxit
等概率地从 {1,2,…,N}
中选取批量 sk
记录在 idx 之中,批量大小为 opts.batchsize 。计算对应的样本的梯度。

idx = randi(N,opts.batchsize,1);
g = pgfun(x,idx);

更新一阶、二阶矩累计,并进行修正。 利用修正的一阶矩和二阶矩对 x
进行更新。

ssum = rho1*ssum +  (1 - rho1)*g;
gsum = rho2*gsum + (1 - rho2)*(g.*g);
ssum_mod = ssum/(1 - rho1^k);
gsum_mod = gsum/(1 - rho2^k);

x = x - opts.alpha./sqrt(gsum_mod + opts.thres).*ssum_mod;

每当参与迭代的总样本次数超过数据集的总样本时,记为一个时期 (epoch)。每一个时期, 记录当前的目标函数值和梯度范数,并令时期计数加一。

if k*opts.batchsize/N >= count
    [f,g] = fun(x);
    out.fvec = [out.fvec; f];
    out.nrmG = [out.nrmG; norm(g,2)];
    out.epoch = [out.epoch; k*opts.batchsize/N];
    count = count + 1;
end

end
end
参考页面
在页面 实例:利用随机算法求解逻辑回归问题 中, 我们展示了该算法的一个应用,并且与其它随机算法进行比较。

其它随机算法参见: 随机梯度下降法、 AdaGrad、 RMSProp、 AdaDelta。

此页面的源代码请见: Adam.m。

版权声明
此页面为《最优化:建模、算法与理论》、《最优化计算方法》配套代码。 代码作者:文再文、刘浩洋、户将,代码整理与页面制作:杨昊桐。

著作权所有 (C) 2020 文再文、刘浩洋、户将

标签:end,迭代,ssum,gsum,BigDataAIML,Adam,SciTech,opts,out
From: https://www.cnblogs.com/abaelhe/p/18146629

相关文章