首页 > 其他分享 >信息量+信息熵

信息量+信息熵

时间:2024-05-17 19:56:11浏览次数:23  
标签:log 比特 信息量 发生 信息熵 事件

信息量

在讨论什么是信息熵之前,我们先了解一下什么是信息量。

信息量可以用来用来衡量一个事件发生的惊奇程度。
事件发生的概率越低,该事件发生对应的惊奇程度越高。
比如,事件“天上出彩虹”就比事件“天上下雨”更令人惊奇,
因为前者的发生概率远远小于后者。

一个系统,包括的等可能事件数量越多事件的发生概率也就越低
传递一个事件的发生, 所需的比特信号也就越多

举例,假如有两城市A、B,二者只能通过01信号传递信息。
当A城投掷了1个硬币(2种等可能)时,我们至少需要使用\(1=log_{2}(2)\)个比特信号, 告诉B城市是正面朝上还是反面朝上。
类似地,当A城市投掷一个有8个面的骰子(8种等可能)时,我们至少需要\(3=log_{2}(8)\)个比特的信号来传递该信息。

假如系统中有\(N\)个等可能事件,那么我们将\(I=log_{2}(N)\)称为信息量。
由于等可能事件的发生概率为\(\frac{1}{N}\),则信息量的公式可以写作\(log_{2}(\frac{1}{N})\) 。
推而广之,假设事件\(x_i\) 的发生概率为\(p(x_i)\) ,则传递该事件发生需要的最少比特信号位(即信息量)为 \(log_{2}\frac{1}{p(x_i)}\), 即 \(- log_{2}(p(x_i))\) 。

信息熵

知道什么是信息量,我们就可以方便地计算信息熵了。
信息熵用于衡量整个事件空间包含的平均信息量,即信息量的平均期望
我们只需要将事件空间中所有事件发生的概率,乘以该事件的信息量,即可得到信息熵:

信息熵也被称作无损编码事件信息的最小平均编码长度。怎么理解呢?
学过霍夫曼树的同学都知道,为提升编码效率,可对不同事件采取不同长度的编码。
信息熵的作用,就是指出这种数据压缩效率的极限。

标签:log,比特,信息量,发生,信息熵,事件
From: https://www.cnblogs.com/abaelhe/p/18198541

相关文章

  • Fisher 信息量和充分统计量的理解
    一:fisher信息量和有效估计量已知总体为包含未知参数的随机变量,密度函数为\(f(x,\theta)\).Fisher信息量为样本携带参数\(\theta\)的信息.对信息量做以下三条假设:1:信息量随样本数量增加等量递增:\(ln\prodf(x_i,\theta)=\sumlnf(x_i,\theta)\).2:密度函数\(f(x,\th......
  • 决策树学习-计算数据集的信息熵
    #计算信息熵defcalEntro(dataset):dataset=np.array(dataset)data_len=len(dataset)#labelCount记录各类样本数据的数量labelCount={}forrowindataset:cur_label=row[-1]ifcur_labelnotinlabelCount.keys():......
  • 机器学习--决策树(信息熵,信息增益,信息增益率,基尼值,基尼指数)
    决策树是根据条件分支语句if-else产生的,决策树是一种树形结构,每一个内部节点表示是一个属性上的判断,每一个分支表示判断结果的输出,每一个叶子节点表示分类结果,本质上就是多个判断节点的树。在使用决策树的时候会提到熵的概念熵:熵表示混乱程度,越混乱熵值越大,越有序熵值越小,在信息......
  • 信息熵
    在随机森林中,熵是一种用于度量数据的纯度或无序程度的概念,特别是在决策树的构建过程中。熵越低,表示数据越有序,纯度越高。信息熵的定义:信息熵是由信息论引入的概念,用于度量一个系统的不确定性。在决策树中,熵通常用于衡量一个节点的纯度,即该节点包含的样本属于不同类别的程度。对......
  • 操作系统之信息量
    1、信息量本质:功能:2、PV操作PV操作由P操作原语和V操作原语组成;P操作相当于请求资源:V操作相当于释放资源:3、例题展示4、例题解决......
  • 辅助线的启发 —— 增加信息量、将未知转为可知
    举例说明:一个汉字三,已知第一条直线和第二条直线都与底下的第三条直线平行,怎么求证上边两条直线也平行呢?在这个题目里面根本就没有相交线,也就更没有同位角、内错角这些东西,那我们怎么运用这些定理呢?我们在汉字三的基础上从上到下画上一根倾斜的竖线,汉字三就立刻变成丰字。丰字......
  • 信息熵
    信息熵前置知识:期望简介在信息论中,熵\((entropy)\)是接收的每条消息中包含的信息的平均量,又被称为信息熵、信源熵、平均自信息量。这里,"消息"代表来自分布或数据流中的事件、样本或特征。(熵最好理解为不确定性的量度而不是确定性的量度,因为越随机的信源的熵越大。)来自信源的......
  • 信息熵、交叉熵、KL散度公式的简单理解
    整理:我不爱机器学习1信息量信息量是对信息的度量,就跟时间的度量是秒一样,考虑一个离散的随机变量x的时候,当观察到的这个变量的一个具体值的时候,我们接收到了多少信息呢?例如听到太阳从东方升起,这样信息对于我们来说价值不大,因为这是一个必然事件,所以这个信息传递给我们的信息量为......
  • 信源与信息熵
    信源:发出消息的源,输出以符号形式出现的具体消息1.符号确定、预先知道,则无信息可言2.符号出现随机,预先无法确定,则给观察者提供了信息这些符号的出现在统计上有某些规律→可用随机变量或随机矢量表示信源,用概率论、随机过程研究信息离散信源:时间、幅度都是离散分布的离散消息的......
  • 关于清远乡村小微企业未来发展,这场发布会信息量大
    党的二十大报告指出,全面推进乡村振兴,加快建设农业强国,扎实推动乡村产业、人才、文化、生态、组织振兴。中央农村工作会议提出,产业振兴是乡村振兴的重中之重,要落实产业帮扶政......