浅析概率、期望、方差、分布
目录更好的阅读体验戳此进入
还没写完,春测之后有机会继续写。
概率
定义
考虑对于事件 $ E $,令 $ P(E) $ 表示事件 $ E $ 发生的概率,显然有 $ 0 \le P(E) \le 1 $。
显然若令所有事件的并为 $ S $,则 $ P(S) = 1 $。
基本公式
\[P(EF) = P(E \cap F) \]一个省略 $ \cap $ 的记法。
\[P(E \cup F) = P(E) + P(F) - P(EF) \]感性理解一下,即简单容斥去掉重复部分。
\[P(E \mid F) = \dfrac{P(EF)}{P(F)} \]$ P(E \mid F) $ 表示在 $ F $ 发生的前提下 $ E $ 发生的概率,该式可将 $ P(F) $ 移至左侧理解,即发生 $ F $ 之后在呈上 $ F $ 基础上发生 $ E $ 的概率就是 $ E, F $ 均发生的概率。
全概率公式
\[P(E) = \sum_{i}P(E \mid F_i) \quad \left( \bigcup_{i, F_i\texttt{互不相交}} F_i = S \right) \]证明显然,即将 $ E $ 拆分成在所有 $ F_i $ 基础上的各个部分并求和。
贝叶斯公式
\[P(F_j \mid E) = \dfrac{P(EF_j)}{P(E)} = \dfrac{P(EF_j)}{\sum_{i}P(E \mid F_i)} = \dfrac{P(F_j) \times P(E \mid F_j)}{\sum_{i}P(E \mid F_i)} \]套用前文公式推导易证。
独立事件
两事件间的独立
显然若事件 $ E, F $ 独立,则满足:
\[P(EF) = P(E) \times P(F) \]\[P(E \mid F) = P(E) \]多个事件之间的独立
显然若事件 $ E_1, E_2, \cdots, E_n $ 均互相独立,则满足:
对于 $ \forall T \subseteq S $,有:
\[P(\bigcap_{\alpha \in T} E_\alpha) = \prod_{\alpha \in T}P(E_\alpha) \]此处存在误区,即直觉上我们可能认为如下命题是正确的,即:事件集合种若任意两个事件间独立,则所有事件均相互独立。但是显然这是错误的,必须要满足对于所有子集均满足上式,对于该错误命题的反例如下:
我们假设存在一随机变量 $ X $ 会离散地等概率随机生成 $ 1, 2, 3, 4 $ 之间一个数,令事件 $ E_1 $ 表示生成的为 $ 1 $ 或 $ 2 \(,\) E_2 $ 表示为 $ 2 $ 或 $ 3 \(,\) E_3 $ 表示为 $ 1 $ 或 $ 3 $。
则显然 $ P(E_1) = P(E_2) = P(E_3) = \dfrac{1}{2} $,且任意两个的积事件,或者说交集,均为 $ \dfrac{1}{4} $,显然满足两者之间独立,但是对于三个事件均发生的概率,显然为 $ 0 $,而不是理应的 $ \dfrac{1}{8} $。
从意义上理解也不难,即任意两个事件之间独立,但是某两个事件的积事件不一定与其它事件独立。
零阶矩
即总和。
期望(一阶原点矩)
这里对于随机变量 $ X $,我们记 $ p(a) = p{X = a} $。
定义
期望可以大概理解为带权平均数,对于随机变量 $ X $,记 $ E(X) $ 为其期望(或 $ \mu $),则有:
\[E(X) = \sum_{x \in X} x \times p(x) \]基本公式
\[E(\sum_i X_i) = \sum_i E(X_i) \]即期望的线性可加性,证明平凡。
\[E(G(X)) = \sum_{x \in X} G(x) \times p(x) \]证明平凡。
同时注意一个误区,如 $ E(X^2) $ 与 $ E(X)^2 $ 不同,不要将其混淆。
方差(二阶中心矩)
定义
一般用来描述随机变量的波动大小,一般记作 $ \sigma^2 $,或 $ \mathrm{Var}(X) $,有:
\[\sigma^2 = \dfrac{1}{n}\sum_{i = 1}^n (x_i - \overline{x})^2 \]基本公式
同时我们可以将其定义转换为期望意义下,并进行如下推导:
\[\begin{aligned} \sigma^2 &= E((X - E(X))^2) \\ &= E(X^2 + E(X)^2 - 2XE(X)) \\ &= E(X^2) + E(X)^2 - 2 \times (\sum x \times p(x)) E(X) \\ &= E(X^2) + E(X)^2 - 2E(X)^2 \\ &= E(X^2) - E(X) ^2 \end{aligned} \]即方差为平方的期望减去期望的平方。
概率密度函数
考虑一个随机变量 $ X $,若其为离散的那么显然可以简单的求出任意点的概率。但若其为连续型的,那么一个点的概率在极限意义下为 $ 0 $,然然而查询一段区间的时候显然不为 $ 0 $,所以我们便引入了概率密度函数来描述这个概率,对于随机变量 $ X $ 的概率密度函数 $ f(x) $,需要满足 $ f(x) $ 在区间内的积分等于 $ X $ 落在该区间的概率。
概率分布函数
类比于概率密度函数,概率分布函数描述的是对于任意随机变量 $ \xi $ 小于 $ x $ 的概率,即一个关于 $ x $ 的函数。
独立同分布
首先独立比较好理解,就是两个随机变量之间无影响,和高中数学里面的独立事件差不多。然后同分布就是指一些随机变量服从相同的分布。
二项式分布
若对于随机变量 $ X $ 满足 $ p(i) = {n \choose i}p^i (1 - p)^{n - i} $,则其满足二项式分布。
这个东西的意义一般认为是在 $ n $ 个独立的是非试验中成功了多少个,即 $ i $ 个的概率为通过组合数选择 $ i $ 个并令这 $ i $ 个均成功,概率为 $ p^i $,其它的均失败,同理。对于这些实验中的一个一般称作伯努利试验。
其期望满足:
\[E(X) = n \times p \]证明平凡。
其方差满足:
\[\sigma^2 = np(1 - p) \]即考虑 $ \sigma^2 = E(X^2) - E(X)^2 = \dfrac{1}{n}n^2p - \dfrac{1}{n}n2p2 = np(1 - p) $。
正态分布
图形不再赘述,唯一需要注意的就是随机变量 $ X $ 的正态分布只需要它的期望 $ \mu $ 和方差 $ \sigma^2 $ 即可描述,记作 $ N(\mu, \sigma^2) $。
中心极限定理
对于 $ n $ 个独立同分布(如相同骰子)的随机变量 $ X_1, X_2, \cdots, X_n $,若 $ E(X_i) = \mu, D(X_i) = \sigma^2 $,令:
\[Y_n = \dfrac{\sum_{i = 1}^n X_i - n\mu}{\sqrt{n\sigma^2}} \]若 $ n $ 足够大,则我们认为 $ Y_n \sim N(0, 1) $。
然后还有一个常用推论,当然首先我们需要知道正态分布的一点运算规则,即:
若 $ X \sim N(a, b) $ 则 $ cX \sim N(ca, c^2b) $,从期望和方差的意义不难理解。
若 $ X \sim N(a, b) $ 则 $ X + c \sim N(a + c, b) $,同理不难得出。
所以我们可以将刚才的中心极限定理式子转化为:
\[\sum_{i = 1}^nX_i \sim N(n\mu, n\sigma^2) \]UPD
update-2023__ 初稿
标签:概率,期望,方差,dfrac,sum,sigma,事件,随机变量,浅析 From: https://www.cnblogs.com/tsawke/p/17180264.html