似然
-
问题背景:
- 我们观察到随机变量 \(Y\) 的值 \(y\),而 \(Y\) 的概率密度函数 \(f(y; \theta)\) 已知,但依赖于参数 \(\theta\)。
- 参数 \(\theta\) 来自参数空间 \(\Theta\),观测数据来自样本空间 \(\mathcal{Y}\)。
- 目标是根据观测数据 \(y\),推断参数 \(\theta\) 的可能取值范围。
-
似然函数的定义:
- 似然函数 \(L(\theta)\) 表示给定数据 \(y\) 时,参数 \(\theta\) 的可能性大小,定义为:\[L(\theta) = f(y; \theta), \quad \theta \in \Theta \]
- 似然函数反映了接近生成数据的 \(\theta\) 值会使 \(L(\theta)\) 较大。
-
离散和连续情况:
- 当 \(Y\) 是离散的,\(f(y; \theta)\) 表示 \(Y=y\) 的概率。
- 当 \(Y\) 是连续的,\(f(y; \theta)\) 表示概率密度函数。
-
独立观测的似然函数:
- 当 \(y\) 是 \(n\) 个独立观测值的集合 \(y = (y_1, \dots, y_n)\) 时,似然函数为:\[L(\theta) = \prod_{j=1}^{n} f(y_j; \theta) \]
例 4.1(泊松分布)
假设 \(y\) 是来自泊松密度 (2.6) 的一个观测值。此处数据和参数都是标量,并且:
\[L(\theta) = \frac{\theta^y e^{-\theta}}{y!} \]参数空间是 \(\{\theta : \theta > 0\}\),样本空间是 \(\{0, 1, 2, \dots\}\)。如果 \(y = 0\),\(L(\theta)\) 是 \(\theta\) 的单调递减函数;如果 \(y > 0\),\(L(\theta)\) 在 \(\theta = y\) 处达到最大值,并且在 \(\theta\) 趋近于零或无穷大时极限值为零。
图 4.1
该图展示了在 950 N/mm² 应力下的弹簧失效数据的似然函数。左上角面板是指数模型的似然函数,下方是韦伯模型的似然函数的透视图。右上角面板显示了韦伯模型的对数似然函数等高线图;通过设定 \(\alpha = 1\) 来获得指数模型的似然函数,即沿着垂直虚线切割 \(L\)。右下角面板显示了 \(\alpha\) 的轮廓对数似然函数,对应于沿上方面板中虚线的对数似然值,对应绘制于 \(\alpha\)。
例 4.2(指数分布)
设 \(y\) 是来自指数密度 \(f(y; \theta) = \theta^{-1} e^{-y/\theta}\) 的随机样本 \(y_1, \dots, y_n\),其中 \(y > 0, \theta > 0\)。参数空间为 \(\Theta = \mathbb{R}_+\),样本空间是笛卡尔积 \(\mathbb{R}_+^n\)。这里 (4.2) 给出:
\[L(\theta) = \prod_{j=1}^{n} \theta^{-1} e^{-y_j/\theta} = \theta^{-n} \exp \left( -\frac{1}{\theta} \sum_{j=1}^{n} y_j \right), \quad \theta > 0. \]在例 1.2 中,在应力 950 N/mm² 下弹簧失效时间为:225, 171, 198, 189, 189, 135, 162, 135, 117, 162,图 4.1 的左上角面板显示了似然函数 (4.3)。该函数是单峰的,在 \(\theta \doteq 168\) 处达到最大值;\(L(168) \doteq 2.49 \times 10^{-27}\)。在 \(\theta = 150\) 时,\(L(\theta)\) 等于 \(2.32 \times 10^{-27}\),所以 150 作为解释数据的可能性是 \(2.32/2.49 = 0.93\) 倍于 \(\theta = 168\) 的可能性。如果我们声明对于 \(L(\theta) > c L(168)\) 为“合理的” \(\theta\) 的取值,那么当 \(c = \frac{1}{2}\) 时,\(\theta\) 在 (120, 260) 范围内是合理的。
例 4.3(柯西分布)
以 \(\theta\) 为中心的柯西密度为 \(f(y; \theta) = [\pi \{1 + (y - \theta)^2\}]^{-1}\),其中 \(y \in \mathbb{R}\) 且 \(\theta \in \mathbb{R}\)。因此随机样本 \(y_1, \dots, y_n\) 的似然函数为:
\[L(\theta) = \prod_{j=1}^{n} \frac{1}{\pi \{1 + (y_j - \theta)^2\}}, \quad -\infty < \theta < \infty. \]样本空间是 \(\mathbb{R}^n\),参数空间是 \(\mathbb{R}\)。图 4.2 的左面板显示了例 4.2 的弹簧数据的 \(L(\theta)\)。在 \(\theta\) 的范围内似然函数有三个局部极大值,其中全局极大值为 \(\theta \doteq 162\)。右面板显示了对数似然函数 \(\log L(\theta)\) 的更多细节。图中至少有四个局部极大值——显然每个观测值都有一个,尤其是在观测值重复时。与前例相比,对于某些 \(c\) 值,\(\theta\) 的“合理”集合由不相交区间组成。
例 4.4(韦伯分布)
韦伯密度为:
\[f(y; \theta, \alpha) = \frac{\alpha}{\theta} \left( \frac{y}{\theta} \right)^{\alpha-1} \exp \left\{ -\left( \frac{y}{\theta} \right)^\alpha \right\}, \quad y > 0, \theta, \alpha > 0. \tag{4.4} \]当 \(\alpha = 1\) 时,这是例 4.2 中的指数密度;指数模型嵌套在韦伯模型中,参数空间是 \(\mathbb{R}_+^2\),样本空间是 \(\mathbb{R}_+^n\)。来自 (4.4) 的随机样本 \(y = (y_1, \dots, y_n)\) 的联合密度为:
\[f(y; \theta, \alpha) = \prod_{j=1}^{n} f(y_j; \theta, \alpha) = \prod_{j=1}^{n} \left[ \frac{\alpha}{\theta} \left( \frac{y_j}{\theta} \right)^{\alpha-1} \exp \left\{ -\left( \frac{y_j}{\theta} \right)^\alpha \right\} \right] \]因此似然函数为:
\[L(\theta, \alpha) = \frac{\alpha^n}{\theta^{n\alpha}} \left( \prod_{j=1}^{n} y_j \right)^{\alpha-1} \exp \left\{ -\sum_{j=1}^{n} \left( \frac{y_j}{\theta} \right)^\alpha \right\}, \quad \theta, \alpha > 0. \tag{4.5} \]图 4.1 的左下角面板显示了例 4.2 数据的 \(L(\theta, \alpha)\)。似然函数在 \(\theta \doteq 181\) 且 \(\alpha \doteq 6\) 时达到最大值,\(L(181, 6)\) 等于 \(6.7 \times 10^{-22}\)。这比指数模型的最大值大 \(2.7 \times 10^5\) 倍。右上面板显示了对数似然函数 \(\log L(\theta, \alpha)\) 的等高线图,虚线对应于 \(\alpha = 1\) 时获得的指数密度。因子 \(2.5 \times 10^5\) 给出了最大对数似然值之间的差异 \(\log(2.7 \times 10^5) = 12.5\)。这一显著提高表明韦伯模型更好地拟合了数据。然而,如果通过最大似然值判断模型拟合,韦伯模型至少和指数模型拟合得一样好,因为 \(\max_{\theta, \alpha} L(\theta, \alpha) \geq \max_{\theta} L(\theta, 1)\),且只有当最大值发生在 \(\alpha = 1\) 线上时才会相等。
依赖数据
在上面的例子中,假设数据是独立的,虽然不一定是同分布的。在更复杂的问题中,数据的依赖结构可能非常复杂,使得很难明确写出 \(f(y; \theta)\)。如果数据是按时间顺序记录的,例如 \(y_1\) 先于 \(y_2\),\(y_2\) 先于 \(y_3\),...... 那么可以帮助写成:
\[f(y; \theta) = f(y_1, \dots, y_n; \theta) = f(y_1; \theta) \prod_{j=2}^{n} f(y_j \mid y_1, \dots, y_{j-1}; \theta). \tag{4.7} \]例如,如果数据来自马尔科夫过程,(4.7) 式变为:
\[f(y; \theta) = f(y_1; \theta) \prod_{j=2}^{n} f(y_j \mid y_{j-1}; \theta), \tag{4.8} \]我们使用了马尔科夫性质,即在给定“现在”\(Y_{j-1}\) 时,“未来”\(Y_j, Y_{j+1}, \dots\) 与“过去”\(Y_{j-3}, Y_{j-2}\) 相互独立。
例 4.6(泊松出生过程)
假设 \(Y_0, \dots, Y_n\) 满足:给定 \(Y_j = y_j\),\(Y_{j+1}\) 的条件密度是均值为 \(\theta y_j\) 的泊松分布,即:
\[f(y_{j+1} \mid y_j; \theta) = \frac{(\theta y_j)^{y_{j+1}}}{y_{j+1}!} \exp(-\theta y_j), \quad y_{j+1} = 0, 1, \dots, \quad \theta > 0. \]如果 \(Y_0\) 服从均值为 \(\theta\) 的泊松分布,那么数据 \(y_0, \dots, y_n\) 的联合密度为:
\[f(y_0; \theta) \prod_{j=1}^{n} f(y_j \mid y_{j-1}; \theta) = \frac{\theta^{y_0}}{y_0!} \exp(-\theta) \prod_{j=0}^{n-1} \frac{(\theta y_j)^{y_{j+1}}}{y_{j+1}!} \exp(-\theta y_j), \]因此似然函数 (4.8) 等于:
\[L(\theta) = \left( \prod_{j=0}^{n} y_j! \right)^{-1} \exp(s_0 \log \theta - s_1 \theta), \quad \theta > 0, \]其中 \(s_0 = \sum_{j=0}^{n} y_j\) 且 \(s_1 = 1 + \sum_{j=0}^{n-1} y_j\)。
4.1.2 基本性质
将似然函数绘制在对数刻度上会很方便。这个刻度在数学上也很方便,我们定义对数似然函数为:
\[\ell(\theta) = \log L(\theta). \]关于相对似然函数的陈述就变成了关于对数似然函数差异的陈述。当 \(y\) 具有独立分量 \(y_1, \dots, y_n\) 时,我们可以写成:
\[\ell(\theta) = \sum_{j=1}^{n} \log f(y_j; \theta) = \sum_{j=1}^{n} \ell_j(\theta), \tag{4.9} \]其中 \(\ell_j(\theta) \equiv \ell(\theta; y_j) = \log f(y_j; \theta)\) 是来自第 \(j\) 次观测的对数似然函数的贡献。\(f\) 和 \(\ell\) 的参数颠倒是为了强调我们主要关注 \(f\) 作为 \(y\) 的函数,以及 \(\ell\) 作为 \(\theta\) 的函数。
对于两个独立的数据集 \(y\) 和 \(z\),其似然函数可以结合为:
\[L(\theta; y, z) = f(y; \theta) f(z; \theta) = L(\theta; y) L(\theta; z), \]这里为了清楚起见,数据是似然函数中的一个附加参数。
似然函数的重要性质
似然函数的一个重要性质是它对已知的数据变换具有不变性。假设两个观察者进行了相同的实验,其中一个记录了连续随机变量 \(Y\) 的值 \(y\),而另一个记录了 \(Z\) 的值 \(z\),其中 \(Z\) 是 \(Y\) 的已知一对一变换。那么 \(Z\) 的概率密度函数为:
\[f_Z(z; \theta) = f_Y(y; \theta) \left| \frac{dy}{dz} \right|, \tag{4.10} \]这里 \(y\) 被看作 \(z\) 的函数,\(\left| \frac{dy}{dz} \right|\) 是从 \(Y\) 到 \(Z\) 的变换的雅可比行列式。由于 (4.10) 与 (4.1) 只相差一个不依赖于参数的常数,因此基于 \(z\) 的对数似然等于基于 \(y\) 的对数似然加上一个常数:不同 \(\theta\) 值的相对似然函数保持不变。这意味着对于某个特定模型 \(f\),似然函数的绝对值与推断 \(\theta\) 无关。当似然函数的最大值是有限值时,我们定义 \(\theta\) 的相对似然为:
\[RL(\theta) = \frac{L(\theta)}{\max_{\theta'} L(\theta')}. \]其取值介于 0 和 1 之间,对数取值介于负无穷大和 0 之间。由于 \(L(\theta)\) 的绝对值对于推断 \(\theta\) 并不重要,我们可以忽略常数,选择任何版本的 \(L\)。从此以后,我们使用符号 \(\equiv\) 表示在定义对数似然时忽略常数。然而,如果我们的目标是比较来自不同分布族的模型,那么不能忽略常数。
例 4.7(弹簧失效数据)
我们可以通过最大似然值比较例 4.2-4.4 中柯西和韦伯模型的数据。在此标准下,最大对数似然值约为 \(-48\) 的韦伯模型比最大对数似然值约为 \(-66\) 的柯西模型要好得多。显然,将常数添加到其中一个模型而不是另一个模型是没有意义的。
假设 \(Y\) 的分布由 \(\psi\) 决定,\(\psi\) 是 \(\theta\) 的一对一变换,因此 \(\theta = \theta(\psi)\)。那么 \(\psi\) 的似然函数 \(L^*(\psi)\) 与 \(\theta\) 的似然函数 \(L(\theta)\) 通过表达式 \(L^*(\psi) = L(\theta(\psi))\) 相关。由于通过此变换,\(L\) 的值不变,因此似然函数对一对一重新参数化是不变的。我们可以使用一个具有特定问题直接解释的参数化。
例 4.8(挑战者号数据)
我们关注在 31°F 时热失效的概率,以原始参数表示为:
\[\psi = \frac{\exp(\beta_0 + 31 \beta_1)}{1 + \exp(\beta_0 + 31 \beta_1)}. \]如果我们将 \(L\) 重新参数化为 \(\psi\) 和 \(\lambda = \beta_1\),则有:
\[\beta_0(\psi, \lambda) = \log \frac{\psi}{1 - \psi} - 31 \lambda, \quad L^*(\psi, \lambda) = L(\beta_0(\psi, \lambda), \lambda). \]图 4.3 右面板中的对数似然图 \(\ell^*(\psi, \lambda)\) 比左面板中的 \(\ell(\beta_0, \beta_1)\) 更易于解释,因为 \(\psi\) 的可能范围变化较慢。左面板中的等高线看起来大致呈椭圆形,而右面板中的等高线则不是。对于 \(\psi\) 的最可能范围是 (0.7, 0.9),其中 \(\lambda\) 的值约为 \(-0.1\)。
解释
当对于一组数据有一个特定的参数模型时,似然函数为评估不同参数值的合理性提供了一个自然的基础,但如何解释呢?一种观点是可以使用以下量表比较 \(\theta\) 的值:
\[1 \geq RL(\theta) > \frac{1}{3}, \quad \theta \text{ 强烈支持}, \]\[\frac{1}{3} \geq RL(\theta) > \frac{1}{10}, \quad \theta \text{ 支持}, \]\[\frac{1}{10} \geq RL(\theta) > \frac{1}{100}, \quad \theta \text{ 弱支持}, \]\[\frac{1}{100} \geq RL(\theta) > \frac{1}{1000}, \quad \theta \text{ 差支持}, \]\[\frac{1}{1000} \geq RL(\theta) > 0, \quad \theta \text{ 很差支持}. \tag{4.11} \]在这种纯粹似然的方式下,\(\theta\) 的值仅根据相对似然进行比较。像 (4.11) 这样的量表简单且直接可解释,但它存在的缺点是其中的数值 \(\frac{1}{3}, \frac{1}{10}\) 等是任意的,并且不考虑 \(\theta\) 的维度,因此在实践中这种解释并不是最常见的。我们将在第 4.5 节中讨论似然值的重复抽样校准。
4.2 总结
4.2.1 二次近似
在具有一个或两个参数的问题中,似然函数是可以可视化的。然而,具有几十个参数的模型很常见,有时参数甚至更多,因此我们经常需要对似然函数进行总结。
一个关键思想是,在许多情况下,对数似然函数作为参数的函数大约是二次的。为了说明这一点,图 4.4 左面板显示了从指数分布 \(\theta^{-1} \exp(-u/\theta), \theta > 0, u > 0\) 中取样量为 \(n = 5, 10, 20, 40, 80\) 的随机样本的对数似然。在每种情况下,样本的平均值为 \(\bar{y} = e^{-1}\)。面板有两个总体特征。首先,每个对数似然的最大值在 \(\theta = e^{-1}\) 处。为了理解为什么这样,注意到公式 (4.3) 意味着:
\[\ell(\theta) = -n \log \theta - \theta^{-1} \sum_{j=1}^{n} y_j = -n \left( \log \theta + \bar{y} / \theta \right), \]当 \(d\ell(\theta)/d\theta = 0\) 时达到最大值,即当 \(\theta = \bar{y}\)。现在,
\[\frac{d^2 \ell(\theta)}{d\theta^2} = -n \left( -\frac{1}{\theta^2} + \frac{2\bar{y}}{\theta^3} \right), \]在 \(\theta = \bar{y}\) 处取值 \(-n/\bar{y}^2\),所以 \(\bar{y}\) 给出了 \(\ell\) 的唯一最大值。使 \(L\) 或等效的 \(\ell\) 最大的 \(\theta\) 值称为最大似然估计,记作 \(\hat{\theta}\)。为了后续引用,注意到值 \(-n^{-1} d^2 \ell(\theta)/d\theta^2\) 及其导数 \(-n^{-1} d^3 \ell(\theta)/d\theta^3\) 在邻域 \(\mathcal{N} = \{\theta : |\theta - \hat{\theta}| < \delta\}\) 中是有界的,前提是 \(\mathcal{N}\) 不包括 \(\theta = 0\)。
第二,\(\ell\) 在最大值处的曲率随 \(n\) 增加而增加,因为 \(\ell\) 的二阶导数(度量 \(\ell\) 关于 \(\theta\) 的曲率)是 \(n\) 的线性函数。函数 \(-d^2\ell(\theta)/d\theta^2\) 被称为观测信息。在此情况下,其在 \(\hat{\theta}\) 处的值为 \(n/\bar{y}^2 = n/\hat{\theta}^2\)。
图 4.4 的右面板显示了与左面板对应的相对似然。增加 \(n\) 的效果是似然函数变得更加集中在最大值附近,因此 \(\theta\) 距离 \(\hat{\theta}\) 的固定值变得越来越不可能生成数据。为了代数地表示这一点,我们写出对数相对似然 $ \log RL(\theta)$,作为 \(\ell(\theta) - \ell(\hat{\theta})\) 并在 \(\hat{\theta}\) 附近对 \(\ell(\theta)\) 进行泰勒展开得到:
\[\log RL(\theta) = \ell(\hat{\theta}) + (\theta - \hat{\theta}) \ell'(\hat{\theta}) + \frac{1}{2} (\theta - \hat{\theta})^2 \ell''(\theta_1) - \ell(\hat{\theta}) = \frac{1}{2} (\theta - \hat{\theta})^2 \ell''(\theta_1), \tag{4.12} \]其中 \(\theta_1\) 介于 \(\theta\) 和 \(\hat{\theta}\) 之间。我们用导数符号表示对 \(\theta\) 的求导,因此 \(\ell'(\theta) = d\ell(\theta)/d\theta\),等等。注意到 \(\ell'(\hat{\theta}) = 0\)。\(\ell\) 的每个导数都是 \(n\) 项的和。随着 \(n\) 的增加,我们看到 \(-n^{-1} \ell''(\theta_1)\) 的界意味着 (4.12) 中的表达式除非在 \(\theta = \hat{\theta}\) 处,否则将变得越来越负。因此 \(RL(\theta)\) 趋向于 0,对于所有 \(n\),\(RL(\hat{\theta}) = 1\)。
为了更仔细地检查对数似然的行为,我们在 (4.12) 的泰勒展开式中取另一个项,得到:
\[\log RL(\theta) = \frac{1}{2} (\theta - \hat{\theta})^2 \ell''(\theta_1) + \frac{1}{6} (\theta - \hat{\theta})^3 \ell'''(\theta_2), \]其中 \(\theta_2\) 介于 \(\theta\) 和 \(\hat{\theta}\) 之间。现在考虑当 \(\theta = \hat{\theta} + n^{-1/2} \delta\) 时会发生什么。随着 \(n\) 增加,这相当于“缩放”到 \(\hat{\theta}\) 附近更小的区域。现在:
\[\log RL\left(\hat{\theta} + n^{-1/2} \delta \right) = \frac{1}{2} \delta^2 n^{-1} \ell''(\hat{\theta}) + \frac{1}{6} \delta^3 n^{-3/2} \ell'''(\theta_2), \tag{4.13} \]并且,关键在于 \(\ell''(\theta)\) 和 \(\ell'''(\theta)\) 都是 \(n\) 的线性函数。\(-n^{-1}\ell'''(\theta)\) 的界意味着 (4.13) 右侧的最后一项当 \(n \to \infty\) 时消失,但二次项变为 \(-\frac{1}{2} \delta^2 \{-n^{-1} \ell''(\hat{\theta})\}\),在此情况下为 \(-\frac{1}{2} \delta^2/\bar{y}^2\)。因此,在大样本中,最大值附近的似然是二次函数,可以用最大似然估计 \(\hat{\theta}\) 和观测信息 \(-\ell''(\hat{\theta})\) 来总结。
这一点的一个含义是,如果我们将自己限制在相对于最大似然估计合理的参数值,例如那些满足 \(RL(\theta) > c\) 的 \(\theta\),则我们发现 \(\log RL(\theta) > \log c\)。与 (4.13) 进行比较,显示我们的“合理” \(\theta\) 的范围随着 \(n\) 的增加而减小,其长度大致与 \(n^{-1/2}\) 成正比。
讨论的是标量参数,但可扩展到高维,除非用矩阵的二阶导数代替 \(d^2\ell/d\theta^2\)。
是否有必要对 \(\ell\) 进行二次近似取决于问题。对于图 4.2 中的对数似然进行这样的总结可能会产生误导,除非非常接近最大值的情况下需要总结。如果可行,绘制似然函数是合理的。
4.2.2 充分统计量
在行为良好的问题中,对于大样本,似然可以通过最大似然估计和观测信息来总结,尽管示例 4.3 和 4.9 显示这种方法可能会失败。一种更好的方法是,似然通常仅通过某些数据的低维函数 \(s(\mathbf{y})\) 来依赖数据,然后可以用此函数来给出合适的总结。因此在示例 4.2 和 4.9 中,似然分别通过 \((n, \sum y_j)\) 和 \((n, \max y_j)\) 依赖于数据。如果我们相信我们的模型是正确的,我们只需要这些函数来计算任意 \(\theta\) 值的似然。这些函数是充分统计量的例子。
假设我们观察到的 \(y\) 是由密度为 \(f(y; \theta)\) 的分布生成的,并且统计量 \(s(\mathbf{y})\) 是 \(\mathbf{y}\) 的函数,使得给定 \(S = s(Y)\) 时,相应随机变量 \(Y\) 的条件密度与 \(\theta\) 无关。即
\[f_{Y|S}(y \mid s; \theta) \tag{4.14} \]不依赖于 \(\theta\)。那么 \(S\) 被称为基于 \(Y\) 的 \(\theta\) 的充分统计量,或者只是 \(\theta\) 的充分统计量。这个想法是,\(Y\) 中的任何不在 \(S\) 中的信息都由条件密度 (4.14) 给出,如果该条件密度与 \(\theta\) 无关,则 \(Y\) 中关于 \(\theta\) 的信息不多于 \(S\)。稍后我们会看到 \(S\) 并不是唯一的。
定义 (4.14) 难以使用,因为在计算条件密度之前我们必须猜测给定统计量 \(S\) 是否是充分的。一个等价且更有用的定义是通过分解准则给出的。该准则表明,对于参数 \(\theta\),统计量 \(S\) 成为充分统计量的必要和充分条件是,在一族概率密度函数 \(f(y; \theta)\) 中,\(Y\) 的密度可以表示为
\[f(y; \theta) = g\{s(y); \theta\}h(y). \tag{4.15} \]因此,\(Y\) 的密度分解为 \(s(y)\) 和 \(\theta\) 的函数 \(g\),以及一个不依赖于 \(\theta\) 的函数 \(h\)。
这两个定义的等价性几乎是不言而喻的。首先注意,如果 \(S\) 是充分统计量,则 \(Y\) 在给定 \(S\) 时的条件分布与 \(\theta\) 无关,即
\[f_{Y|S}(y \mid s) = \frac{f_{Y,S}(y, s; \theta)}{f_S(s; \theta)} \tag{4.16} \]与 \(\theta\) 无关。但由于 \(S\) 是 \(Y\) 的函数 \(s(Y)\),\(S\) 和 \(Y\) 的联合密度为零,除非 \(S = s(Y)\),因此右侧的分子只是 \(f_Y(y; \theta)\)。重排 (4.16) 意味着如果 \(S\) 是充分的,则 (4.15) 成立,\(g(\cdot) = f_S(\cdot)\) 且 \(h(\cdot) = f_{Y|S}(\cdot)\)。
相反,如果 (4.15) 成立,我们通过对使得 \(s(y) = s\) 的 \(y\) 的范围求和或积分来找到 \(S\) 在 \(s\) 处的密度。在离散情况下,
\[f_S(s; \theta) = \sum_{y} g\{s(y); \theta\} h(y) = g\{s; \theta\} \sum h(y), \]因为求和是在那些使得 \(s(y) = s\) 的 \(y\) 上。因此,\(Y\) 在给定 \(S\) 时的条件密度为
\[f_{Y|S}(y; \theta) / f_S(s; \theta) = \frac{g\{s(y); \theta\} h(y)}{g\{s; \theta\} \sum h(y)} = \frac{h(y)}{\sum h(y)}, \]这表明 \(S\) 是充分的。
标签:似然,frac,函数,ell,alpha,theta From: https://www.cnblogs.com/Desire-My/p/18455939