变分自编码器等模型中会引入Kullback-Leibler散度作为损失函数
目录
信息论
谈及熵相关的概念,必须要涉及到信息论。
信息论是一门运用概率论与数理统计的方法研究信息、信息熵、通信系统、数据传输、密码学、数据压缩等问题的应用数学学科。它起源于20世纪30年代,由美国物理学家克劳德·香农(Claude Shannon)在1948年发表的论文《信息论》(A Mathematical Theory of Communication)中首次提出,并奠定了现代信息论的基础。
信息论涉及很多理论,包括但不限于信源编码理论、信道编码理论、数据压缩理论等。信源编码理论主要研究如何有效地表示和传输信息,以减少信息的冗余和传输成本。其中,霍夫曼编码是一种广泛应用的高效编码方法。信道编码理论则关注如何在有噪声的信道中可靠地传输信息。通过引入冗余信息,信道编码可以提高数据传输的可靠性,降低误码率。数据压缩理论通过研究信息的冗余性,实现数据量的减少和存储空间的节省。无损压缩和有损压缩是数据压缩的两种主要方式。
信息是对不确定性的量化,描述了对某一事件的观测结果所提供的确定性减少量。它是信息论中的核心概念之一。熵是信息论中用于衡量信息不确定性的重要指标。在信息论中,熵越高表示信息的不确定性越大,反之则越小。信息论和熵的定义存在一些玄妙的解释权的问题,当然也可以不使用目前主流的概念来衡量信息不确定性,不过不得不承认信息论内的很多定义的衍生内容确实具备一些性质,能够较好地契合交叉学科的需求,并且能够有效地work。例如这里将要提到的互信息、KL散度、交叉熵等等。
KL散度
KL散度是一种用于比较两个概率分布的方法,称为Kullback-Leibler散度(简称为KL散度)。
KL散度能够帮助衡量损失的信息。因为在实际应用与计算中,通常会使用较为简单的近似分布来近似替代观察到的数据或者所需要考量的复杂分布,这时候需要一个有效的指标来衡量近似的效果。这有很广泛的应用,例如可以用于变分自编码器VAE中作为损失函数。
在给定分布p、q的情况下,p为真实分布,q为p的近似分布,可以直接定义KL散度
对KL散度的公式做一些推导
通过公式推导可以看到,KL散度可以表示为p和q的交叉熵与真实分布p的熵的差。
这一点意味着,最小化KL散度,可以使得交叉熵与真实分布的熵接近。
那么这种熵接近是否意味着分布接近或者近似呢?
从逻辑上,这种接近的解释不够严谨,因为可能存在KL散度很小但分布p和q却相差甚远的情况。需要再度考量KL散度的公式,来更直观地说明其能够衡量近似的效果:
这样推导后可以清晰地看出来,当最小化KL散度时,会迫使分布p和q对在每个x处有效接近,最终使得分布p和q不断近似。
实际模型
在深度学习中,近似认为数据的分布即是真实分布,而模型输出的分布即是用来逼近的分布。这背后实际上是经验风险最小化ERM (Empirical Risk Minimization)的思想。
如果需要基于KL散度做为损失函数训练一个判别模型或生成模型,设训练集大小为n,每个数据点为,KL散度可以写成:
在实际模型中,上式为常数。目的是使得模型的分布接近数据的分布,引入KL散度作为损失函数,那么优化KL散度即等价于优化交叉熵。因此可以使用交叉熵作为损失函数训练辨别模型或者其他模型。
比如随机隐变量遵循高斯分布的VAE变分自编码器模型。其损失函数有效地引入了KL散度保证分布的近似性,并结合MSE均方误差或其他保证输入与输出的近似性。
如上,第一项可以为MSE均方误差或其他保证输入与输出的近似性,第二项为KL散度。
交叉熵与MLE
在实际模型中,KL散度中的交叉熵可能在事实上实现了极大似然估计的效果
基于前面实际模型的假定和结果,将模型的输出显性表示为,随后便能够以极大似然估计的思想去理解这个模型输出的分布结果,将其进行参数化,并求取极大/极小的结果,公式可以表示为:
再作进一步推导,视为,对于极小化参数不产生影响,但是有效契合交叉熵的公式,再进一步用采样的形式表示期望,可以发现这里交叉熵在事实上与极大似然估计等价。
极大似然估计(Maximum Likelihood Estimation, MLE)是一种在统计学中用来估计模型参数的方法。其基本思想是,给定观测数据,通过调整模型参数来最大化观测数据出现的“似然性”(likelihood),即这些数据在模型参数下的联合概率分布或密度函数。这种方法广泛应用于机器学习、数据分析、经济学和许多其他领域。
标签:交叉,模型,散度,KL,分布,信息论 From: https://blog.csdn.net/weixin_73404807/article/details/142456818