首页 > 其他分享 >互信息

互信息

时间:2024-09-10 17:05:55浏览次数:6  
标签:frac log 信息量 互信息 sum 系统

参考
互信息是信息论中用以评价两个随机变量之间的依赖程度的一个度量。
相关概念:

  • 信息量:是对某个事件发生或者变量出现的概率的度量,一个事件发生的概率越低,这个事件包含的信息量越大,这跟我们直观上的认知也是吻合的,越稀奇新闻包含的信息量越大,因为这种新闻出现的概率低。香农提出了一个定量衡量信息量的公式:\(log \frac{1}{p}=-log p\)
  • 熵(entropy):是衡量一个系统的稳定程度。其实就是一个系统所有变量信息量的期望或者说均值。

    \[H(X)=\sum_{x\in X}P(x)log \frac{1}{P(x)}=-\sum_{x \in X}P(x)log P(x)=-E log \ P(x) \]

当一个系统越不稳定,或者事件发生的不确定性越高,它的熵就越高。
以投硬币为例,正面的概率为​, 反面的概率则为​,那么这个系统的熵就是​
显然易得,当​时,​的取值最大,也就印证了 事件发生的不确定性越高,它的熵就越高。

  • 联合熵:多个联合变量的熵,也就是多个变量联合的熵

    \[H(X,Y)=\sum_{x\in X}\sum_{y\in Y}P(x,y\log\frac{1}{P(x,y)})=-E\log P(X,Y) \]

  • 条件熵:一个随机变量在给定的情况下,系统的熵。
  • 互信息:如下图,互信息就是​,即​与​交叉的部分。其等价于
    \(I(X;Y)=H(X)-H(X|Y)=H(Y)-H(Y|X)=H(X)+H(Y)-H(X,Y)\)

区别:
互信息描述的是同一个系统下两个子系统的对应部分的信息量;
信息增益描述的是同一个系统下,不同状态的信息量。

  • 交叉熵描述的是两个概率分布之间的差异,用于评估模型的性能。
  • KL散度是衡量一个概率分布P相对于另一个概率分布Q的差异,用于评估模型预测的不确定性。
  • 互信息是衡量两个随机变量之间的信息共享量,用于特征选择和提取。

标签:frac,log,信息量,互信息,sum,系统
From: https://www.cnblogs.com/ddja/p/18406736

相关文章

  • 第十四篇——互信息:相关不是因果,那相关是什么?
    目录一、背景介绍二、思路&方案三、过程1.思维导图2.文章中经典的句子理解3.学习之后对于投资市场的理解4.通过这篇文章结合我知道的东西我能想到什么?四、总结五、升华![在这里插入图片描述](https://img-blog.csdnimg.cn/direct/499cd9af2ea14cbf8d12813f6f7fa150.png)......
  • HHDESK端口转发监控服务获取客户端和数据库之间的交互信息
    1.用户痛点端口转发是一种网络技术,用于将外部网络请求转发到内部网络中的特定设备或服务。它允许通过公共网络访问内部网络中的资源,提供了灵活性和便利性。传统的端口转发方式是通过配置路由器的端口映射,但这需要具备网络知识和一定的技术操作,对于一般用户来说较为繁琐。而HHDESK......
  • Python计算两图相似性-基于互信息(Mutual Information)
    1、简介通过计算两个图片的互信息来表征他们之间的相似度,如果两张图片尺寸相同,还是能在一定程度上表征两张图片的相似性的。但是,大部分情况下图片的尺寸不相同,如果把两张图片尺寸调成相同的话,又会让原来很多的信息丢失,所以很难把握。经过实际验证,此种方法的确很难把握。 2、......
  • 互信息(Mutual Information)的介绍
    互信息指的是两个随机变量之间的关联程度,即给定一个随机变量后,另一个随机变量不确定性的削弱程度,因而互信息取值最小为0,意味着给定一个随机变量对确定一另一个随机变量没有关系,最大取值为随机变量的熵,意味着给定一个随机变量,能完全消除另一个随机变量的不确定性。 互信息(MutualI......
  • 标准化互信息NMI计算步骤及其Python实现
    假设对于17个样本点(v1,v2,...,v17)进行聚类:某一种算法得到聚类结果为:A=[12111112222311333]标准的聚类结果为:B=[11111122222233333]问题:需要度量算法结果与标准结果之间的相似度,如果结果越相似NMI值应接近1;如果算法结果很差......
  • 利用最大互信息系数MIC对回归拟合预测数据集做特征自变量的选择,实现降低数据纬度的目
    利用最大互信息系数MIC对回归拟合预测数据集做特征自变量的选择,实现降低数据纬度的目的,简化数据复杂度。程序内注释详细,直接替换excel数据就可以用。程序语言为matlab。可免费指导替换数据,无售后讲解。。ID:2425680290257538......
  • 基于最大互信息系数MIC算法先对高维度的数据进行降维,将原始数据的特征维度进行筛选降
    基于最大互信息系数MIC算法先对高维度的数据进行降维,将原始数据的特征维度进行筛选降低后再结合长短神经网络模型LSTM建立多输入单输出的拟合预测MIC-LSTM组合模型。程序内注释详细,直接替换数据就可以用。程序语言为matlab。不会替换数据的小白,可以免费指导替换数据。对于程序看不......
  • 基于互信息和归一化互信息的医学图像配准算法matlab仿真
    1.算法仿真效果matlab2022a仿真结果如下:2.算法涉及理论知识概要信息论中将互信息定义为信息之间的关系,可以表示为两个随机变量之间统计相关性的度量,由此可以得出图像互信息的计算方法。作为图像多模态配准中的度量,图像互信息利用对图像灰度值的统计数据形成单个图像的灰度值概......
  • 基于互信息和归一化互信息的医学图像配准算法matlab仿真
    1.算法仿真效果matlab2022a仿真结果如下:      2.算法涉及理论知识概要       信息论中将互信息定义为信息之间的关系,可以表示为两个随机变量之间统计相关性的度量,由此可以得出图像互信息的计算方法。作为图像多模态配准中的度量,图像互信息利用对图像灰......
  • 信息论之从熵、惊奇到交叉熵、KL散度和互信息
    一、熵(PRML)考虑将A地观测的一个随机变量x,编码后传输到B地。这个随机变量有8种可能的状态,每个状态都是等可能的。为了把x的值传给接收者,需要传输⼀个3⽐特的消息。注意,这个变量的熵由下式给出:⾮均匀分布⽐均匀分布的熵要⼩。如果概率分布非均匀,同样使用等长编码,那么并不是最......