首页 > 其他分享 >信息熵

信息熵

时间:2023-08-10 23:01:54浏览次数:44  
标签:概率分布 log2 times0 times 信源 信息熵

信息熵

前置知识:期望

简介

在信息论中,熵\((entropy)\)是接收的每条消息中包含的信息的平均量,又被称为信息熵、 信源熵、平均自信息量
这里,"消息"代表来自分布或数据流中的事件、样本或特征。(熵最好理解为不确定性的量度而不是确定性的量度,因为越随机的信源的熵越大。)来自信源的另一个特征是样本的概率分布。
这里的想法是,比较不可能发生的事情,当它发生了,会提供更多的信息。由于一些其他的原因,把信息(熵)定义为概率分布的对数的相反数是有道理的。事件的概率分布和每个事件的信息量构成了一个随机变量,这个随机变量的均值(期望)就是这个分布产生的信息量的平均值(即熵)。

以上简介摘自\(bing\)

信息熵创始人 克劳德·艾尔伍德·香农 \(Claude Elwood Shannon\)
熵的计算公式\(H=-\sum_{i=1}^{n}P\ log2\ P\)
\(P\)表示这件事情发生的概率\(/\)这个字符在整个字符串里出现的概率
规定 \(0\ log\ 0=0\)


特点

  • 信息熵的特点
    • 单调性 一件事发生的概率越大,熵就越小
    • 非负性 输入命令的信息含量不可能为负
    • 累加性 熵只增不减,除非恢复原样

例子

对于一串字符的熵

滴滴滴滴

\(P=1,\ log2\ P=0\)
\(H=-(1\times0+1\times0+1\times0+1\times0)=0\)
这条信息在计算机中的价值为0。

一个整数

\(P=1/4,\ log2\ P=-2\)
\(H=-(1\times(-2)+1\times(-2)+1\times(-2)+1\times(-2))=8\)
这条信息在计算机中的价值为8。


标签:概率分布,log2,times0,times,信源,信息熵
From: https://www.cnblogs.com/wrl2010/p/17621825.html

相关文章

  • 信息熵、交叉熵、KL散度公式的简单理解
    整理:我不爱机器学习1信息量信息量是对信息的度量,就跟时间的度量是秒一样,考虑一个离散的随机变量x的时候,当观察到的这个变量的一个具体值的时候,我们接收到了多少信息呢?例如听到太阳从东方升起,这样信息对于我们来说价值不大,因为这是一个必然事件,所以这个信息传递给我们的信息量为......
  • 信源与信息熵
    信源:发出消息的源,输出以符号形式出现的具体消息1.符号确定、预先知道,则无信息可言2.符号出现随机,预先无法确定,则给观察者提供了信息这些符号的出现在统计上有某些规律→可用随机变量或随机矢量表示信源,用概率论、随机过程研究信息离散信源:时间、幅度都是离散分布的离散消息的......
  • (1)信息熵,条件熵,信息增益,信息增益率
    介绍信息熵和信息增益之前,先介绍信息增量的概念文章目录​​1、信息量​​​​2、信息熵​​​​3、信息熵冗余度​​​​4、条件熵​​​​5、信息增益​​​​6、信息增益......
  • entropy 熵 信息熵+联合熵+条件熵+互信息+交叉熵等的含义
    preref:https://zhuanlan.zhihu.com/p/35379531ref:https://blog.csdn.net/bymaymay/article/details/85059136自信息\(I(x)\)函数用以表达信息的内容,描述的是随机变......
  • 信息论与编码(二)| 自信息与信息熵
    自信息信息量如何考察或计算信源输出的消息(或者符号)的信息量?信源的信息实质:不确定性(信源输出的是消息,消息的内涵是信息。信源输出一个符号,我们认为发生一个事件)。数学上......