首页 > 其他分享 >神经网络优化篇:详解指数加权平均的偏差修正(Bias correction in exponentially weighted averages)

神经网络优化篇:详解指数加权平均的偏差修正(Bias correction in exponentially weighted averages)

时间:2024-01-16 09:58:29浏览次数:18  
标签:偏差 weighted 0.02 correction beta exponentially 估测 theta 0.98

指数加权平均的偏差修正

\({{v}_{t}}=\beta {{v}_{t-1}}+(1-\beta ){{\theta }_{t}}\)

在上一个博客中,这个(红色)曲线对应\(\beta\)的值为0.9,这个(绿色)曲线对应的\(\beta\)=0.98,如果执行写在这里的公式,在\(\beta\)等于0.98的时候,得到的并不是绿色曲线,而是紫色曲线,可以注意到紫色曲线的起点较低,来看看怎么处理。

计算移动平均数的时候,初始化\(v_{0} = 0\),\(v_{1} = 0.98v_{0} +0.02\theta_{1}\),但是\(v_{0} =0\),所以这部分没有了(\(0.98v_{0}\)),所以\(v_{1} =0.02\theta_{1}\),所以如果一天温度是40华氏度,那么\(v_{1} = 0.02\theta_{1} =0.02 \times 40 = 8\),因此得到的值会小很多,所以第一天温度的估测不准。

\(v_{2} = 0.98v_{1} + 0.02\theta_{2}\),如果代入\(v_{1}\),然后相乘,所以\(v_{2}= 0.98 \times 0.02\theta_{1} + 0.02\theta_{2} = 0.0196\theta_{1} +0.02\theta_{2}\),假设\(\theta_{1}\)和\(\theta_{2}\)都是正数,计算后\(v_{2}\)要远小于\(\theta_{1}\)和\(\theta_{2}\),所以\(v_{2}\)不能很好估测出这一年前两天的温度。

有个办法可以修改这一估测,让估测变得更好,更准确,特别是在估测初期,也就是不用\(v_{t}\),而是用\(\frac{v_{t}}{1- \beta^{t}}\),t就是现在的天数。举个具体例子,当\(t=2\)时,\(1 - \beta^{t} = 1 - {0.98}^{2} = 0.0396\),因此对第二天温度的估测变成了\(\frac{v_{2}}{0.0396} =\frac{0.0196\theta_{1} + 0.02\theta_{2}}{0.0396}\),也就是\(\theta_{1}\)和\(\theta_{2}\)的加权平均数,并去除了偏差。会发现随着\(t\)增加,\(\beta^{t}\)接近于0,所以当\(t\)很大的时候,偏差修正几乎没有作用,因此当\(t\)较大的时候,紫线基本和绿线重合了。不过在开始学习阶段,才开始预测热身练习,偏差修正可以帮助更好预测温度,偏差修正可以帮助使结果从紫线变成绿线。

在机器学习中,在计算指数加权平均数的大部分时候,大家不在乎执行偏差修正,因为大部分人宁愿熬过初始时期,拿到具有偏差的估测,然后继续计算下去。如果关心初始时期的偏差,在刚开始计算指数加权移动平均数的时候,偏差修正能帮助在早期获取更好的估测。

标签:偏差,weighted,0.02,correction,beta,exponentially,估测,theta,0.98
From: https://www.cnblogs.com/oten/p/17966940

相关文章

  • 神经网络优化篇:理解指数加权平均数(Understanding exponentially weighted averages)
    理解指数加权平均数回忆一下这个计算指数加权平均数的关键方程。\({{v}_{t}}=\beta{{v}_{t-1}}+(1-\beta){{\theta}_{t}}\)\(\beta=0.9\)的时候,得到的结果是红线,如果它更接近于1,比如0.98,结果就是绿线,如果\(\beta\)小一点,如果是0.5,结果就是黄线。进一步地分析,来理解如何计......
  • A Long read hybrid error correction algorithm based on segmented pHMM
    ALongreadhybriderrorcorrectionalgorithmbasedonsegmentedpHMM  2023/12/1511:06:36The"LongreadhybriderrorcorrectionalgorithmbasedonsegmentedpHMM"referstoaspecificapproachforerrorcorrectioninlong-readse......
  • PacBio long-read error correction algorithms
    为了更深入了解纠错策略,以下是一些相关的研究论文,供您参考: 纠错策略的相关研究综述:该综述对国内外专家多年来关于错误和纠错相关理论的研究进行了总结和归纳。其中包括错误分析的相关研究(错误的定义、错误产生的原因、错误的类型)、纠错的相关研究(纠错的定义、纠错的意义、纠......
  • LocPatcH An efficient long-read hybrid error correction algorithm based on local
    该文档主要介绍了一种基于装配的方法和概率隐藏马尔科夫模型(pHMM)用于纠正长读序列的错误。文档详细描述了对酵母数据进行实验的结果、纠正方法的拓扑结构以及实验设置和数据集。 这种基于装配的纠正方法相对于直接纠正存在哪些优势?pHMM的拓扑结构是怎样的?......
  • long-read error correction algorithms”
    “long-readerrorcorrectionalgorithms”是指用于纠正长读长测序数据中错误的算法。长读长测序技术能够产生更长的DNA或RNA序列,但也容易受到测序过程中的错误影响。这些算法通过分析测序数据中的错误模式和参考序列信息,识别和纠正错误,从而提高长读长测序数据的准确性和可靠性。......
  • 【阅读笔记】图像增强-《Efficientcontrast enhancement using adaptive gamma correc
    2013年发表在TIP上的对比度增强算法AGCWD(Efficientcontrastenhancementusingadaptivegammacorrectionwithweightingdistribution)提出了一种自动映射技术,通过亮度像素的伽马校正和概率分布来提高调暗图像的亮度。为了增强视频,所提出的图像增强方法使用关于每帧之间差异的时......
  • CF1621G Weighted Increasing Subsequences
    CF1621GWeightedIncreasingSubsequences你有一个长度为\(n\)的序列,定义\(a\)的一个长度为\(k\)的子序列为\(a_{i_1},a_{i_2},\dots,a_{i_k}\)。由此,我们不难发现,\(a\)的一个长度为\(k\)的子序列为上升子序列,当且仅当\(\forallj\in[1,k)\),\(a_{i_j}<a_{i_{j+1}}\)......
  • ISP--Black Level Correction(黑电平矫正)
    图像的每一个像素点都是由一个光电二极管控制的,由二极管将电信号,转换为数字信号。那么,我们知道了,图像的像素值是与电信号强度相关的。但是,我们得知道,每一个光电二极管要想工作,都得有一定的电压。这就是的,即使在外部没有光线照射的时候,Sensor也会有一定的电压。那这不就会在成像......
  • Weighted Nonlocal Laplacian on Interpolation from Sparse Data
    目录概符号说明WNLLShiZ.,OsherS.andZhuW.Weightednonlocallaplacianoninterpolationfromsparsedata.2017,J.Sci.Comput.概针对graphlaplacian提出的一个改进,方法很简单,但是切入点不错.符号说明\(P=\{\bm{p}_1,\ldots,\bm{p}_n\}\subset\m......
  • [ABC318D] General Weighted Max Matching 题解
    [ABC318D]GeneralWeightedMaxMatching题解题意  给定无向有权完全图,求最大权匹配。思路分析  注意到\(n\le16\),我考虑状压DP。  设当前点集\(S\)中最大权匹配的答案是\(f_S\),我们考虑\(S\)中“最后”一个点\(p\)(这里的“最后”一个点是指,在状压表示状态......