首页 > 其他分享 >Fisher 信息量和充分统计量的理解

Fisher 信息量和充分统计量的理解

时间:2024-03-28 22:24:57浏览次数:25  
标签:partial ln 信息量 充分 frac cdot theta Fisher

一:fisher 信息量和有效估计量
已知总体为包含未知参数的随机变量,密度函数为 \(f(x,\theta)\).
Fisher 信息量为样本携带参数 \(\theta\) 的信息.
对信息量做以下三条假设:
1:信息量随样本数量增加等量递增:\(ln\prod f(x_i,\theta)=\sum ln f(x_i,\theta)\).
2:密度函数 \(f(x,\theta)\) 关于参数 \(\theta\) 变化的速度表示信息多少: \(\frac{\partial lnf(x,\theta)}{\partial \theta}\)
3:信息量 \(\geq 0\), 且综合考虑分布总体: \(I(\theta)=E_{\theta}[(\frac{\partial lnf(x,\theta)}{\partial \theta})^2]\)

记 \(V=\frac{\partial ln f(x,\theta)}{\partial \theta} \Rightarrow E_{\theta}(V)=0\) 称为得分函数. \(I(\theta)=E_{\theta}(V^2)\).

设 \(T\) 是一个 \(\theta\) 的无偏估计:
$E((V-EV)(T-ET))^2\leq E(V-EV)^2\cdot E(T-ET)^2 $
\(1=E(VT)^2\leq D(V)\cdot D(T)\)
\(\Rightarrow D(T)\geq \frac{1}{D(V)}=\frac{1}{I(\theta)}\)
等号成立 \(\longleftrightarrow\) \(\frac{\partial ln f(x,\theta)}{\partial \theta}=C(\theta)(T-\theta)\) 达到下界记为有效估计量.

二:充分统计量
1: 说明:统计量是对样本信息进行压缩, 希望压缩不损失信息
\(\cdot\) 样本信息:\(I_1(\theta)=E_\theta(\frac{\partial ln f(x,\theta)}{\partial \theta})^2\)
\(\cdot\) 统计量信息:\(I_2(\theta)=E_{\theta}(\frac{\partial ln g(T,\theta)}{\partial \theta})^2\)
2: 设 T为充分统计量: \(\frac{\partial ln f(x,\theta)}{\partial \theta}=\frac{\partial ln f(x,T,\theta)}{\partial \theta}=\frac{\partial ln f(x,\theta|T)\cdot g(T)}{\partial \theta}=\frac{\partial ln f(x|T)}{\partial \theta}+\frac{\partial ln g(T)}{\partial \theta}\)
\(\Rightarrow \frac{\partial ln f(x|T)}{\partial \theta}=0, f(x|T) 与 \theta\) 无关\(\rightarrow\) 充分统计量的定义.
\(\cdot\) 解释起来就是样本包含的信息和统计量包含的信息一样多.

三:完备统计量
1:说明:不包含除了参数以外的随机信息
\(\cdot\) 函数族:\({f(x,\theta)}\)
\(\cdot\) 完备函数族:\(\forall g(x): E_\theta(g(x))=0 \Rightarrow P(g(x)=0)=1\) (无随机信息)

类似向量空间一组基的理解 \(a_1,\cdots a_n\) 是一组基, 若 \(a \cdot a_i=0 \forall i \Rightarrow a=0\)

\(\cdot\) 样本分布函数族: \(f(x_1\cdots x_n,\theta)=\prod f(x_1,\theta)\cdots f(x_n,\theta)\) 不完备 :\(E(x_1-x_2)=0\)
\(\cdot\) 均值为 0 的正态分布族 \(f(x)=\frac{1}{\sqrt{2\pi}}e^{-x^2/2}\) 不完备:
设 \(g(x)\)为奇函数: E(g(x))=0

3:完备统计量:\(\{g(T,\theta)\}\) 是完备分布族
\(\cdot\) \(E_\theta(h(T))=0\rightarrow P(h(T)=0)=1\)
\(\cdot\) 若充分统计量不完备:$\exists h_1(T)\neq 0 $, \(E(h_1(T))=0\), 即 \(T+h_1(T)\) 也包含全部信息, 信息冗余.

标签:partial,ln,信息量,充分,frac,cdot,theta,Fisher
From: https://www.cnblogs.com/lwybk/p/18084104

相关文章

  • 数据分享|R语言使用核Fisher判别方法、支持向量机、决策树与随机森林研究客户流失情况
    全文链接:https://tecdat.cn/?p=35438原文出处:拓端数据部落公众号分析师:JiaojiaoZhao现在,越来越多的人意识到预测客户的流失与否是一件非常重要的事情。而且比较值得注意的是,留住原有的客户是要比吸引新客户更加容易的,而且成本更低。客户的流失可以从三个不同的方面来考虑。首......
  • 面试准备不充分,被Java守护线程干懵了,面试官主打一个东西没用但你得会
    写在开头面试官:小伙子请聊一聊Java中的精灵线程?我:什么?精灵线程?啥时候精灵线程?面试官:精灵线程没听过?那守护线程呢?我:守护线程知道,就是为普通线程服务的线程嘛。面试官:没了?守护线程的特点,怎么使用,需要注意啥,Java中经典的守护线程都有啥?我:不知道。。。这的天,面试一个10K的工作,......
  • 问题:在西方教育史上 斯宾塞第一次明确地提出了智育 德育 和体育的概念 并对其进行了充
    问题:在西方教育史上斯宾塞第一次明确地提出了智育德育和体育的概念并对其进行了充分的论述。()参考答案如图所示问题:中国特色社会主义的总布局和战略布局是(??)A、建设中国特色社会主义B、实现社会主义现代化C、中华民族的伟大复兴D、全面深化改革参考答案如图所示......
  • CF1437F Emotional Fishermen 题解
    题意:有\((n\le5000)\)个渔民,每个渔民钓了一条重\(a_i\)的鱼,渔民按任意顺序展示他们的鱼。若当前渔民的鱼的重量为\(x\),之前展示过的鱼的最大重量\(y\)。一个排列满足条件当且仅当对于每个\(x\),满足\(2y\lex\)或\(2x\ley\)。问有多少个排列满足条件,对\(998244353......
  • 统一大语言模型和知识图谱:如何解决医学大模型-问诊不充分、检查不准确、诊断不完整、
    统一大语言模型和知识图谱:如何解决医学大模型问诊不充分、检查不准确、诊断不完整、治疗方案不全面?医学大模型问题如何使用知识图谱加强和补足专业能力?大模型结构知识图谱增强大模型的方法 医学大模型问题问诊。偏离主诉和没抓住核心。解决方案:建立抗干扰的能力,使得发现用户问题......
  • Newton-Leibniz公式、可积的充分必要条件、积分中值定理、微积分基本定理
    ......
  • How to 充分利用你的服务器
    Howto充分利用你的服务器图床在国外,图片刷新不出来就多试几次目录Howto充分利用你的服务器什么样的计算适合当前服务器?从CPU架构入手两个CPU带来的影响那么有办法控制代码的运行,和架构来匹配吗?存储在同区RAM,多CPU参与运算存储在不同区RAM,多CPU参与运算结论参考文献本文处于......
  • P5867 [SEERC2018] Fishermen(暂无评定) 题解
    题意有\(n\)条鱼,\(m\)个渔夫,且这\(m\)个渔夫都在横坐标轴上,每个渔夫都有一个长度为\(l\)的鱼竿,当鱼和渔夫距离小于或等于\(l\)时,鱼能被钓到。并且渔夫\((x,0)\)与鱼\((a,b)\)的距离(假设为\(L\))满足如下公式\(|a−x|+b\)式子中\(x\)为渔夫的横坐标,\((a,b)......
  • 大模型训练的充分性判断
    在机器学习中,模型训练是一个关键步骤,它决定了模型是否能够准确地预测未来的数据。然而,模型训练是否充分是一个非常重要的问题。如果模型训练不足,那么模型可能无法完全掌握数据中的所有模式和特征,导致预测不准确。反之,如果模型训练过度,那么模型可能会过拟合训练数据,对新的数据无法做......
  • 随机产生n个数的排列(Fisher-Yates洗牌算法)
    #include<bits/stdc++.h>usingnamespacestd;constintN=1e5+10;inta[N];//Fisher-Yates洗牌算法voidshuffle(intn){srand(time(NULL));for(inti=n;i>1;i--){intj=rand()%i+1;swap(a[i],a[j]);}......