目录
知识结构
内容精读
1.随机事件与概率
1.1事件
随机事件通俗来讲就是在相同条件下可能发生也可能不发生的事件,也就是事件发生的概率是不确定的。与之对应的还有必然事件与不可能事件,显而易见,必然事件就是一定发生的事件,不可能事件与之相反是一定不会发生的事件。他们的符号表示如下:
随机事件 | |
必然事件 | |
不可能事件 |
1.2概率
概率及对一个事件发生的可能性的度量。例如:扔一次骰子,每个点数出现的概率都是1/6。
(1)古典定义
古典定义下的概率有两个特点一是结果有限,在基本空间中只有有限个事件发生;二是各个结果的出现的可能性被认为是相同的。通常具有这两个特点的问题也被称为古典概型。
$$P(A)=\frac{事件A所包含的基本事件个数}{样本空间所包含的基本事件个数}=\frac{m}{n}$$
(2)统计定义
在相同条件下实验n次,某个事件出现m次。记该事件发生概率为:
$$P(A)=\frac{m}{n}$$
(3)主观统计
所谓主观是指对于一些无法重复实验的问题,只能根据经验人为的对事件发生的概率做出判断。
2.离散型随机变量
如果随机变量X的所有取值都可以逐个列出来,那么就称X为离散型随机变量(对于什么是随机变量见名词解释)。
2.1期望与方差
离散型随机变量的期望为每一事件的数值与概率乘机求和。
$$E(X)=x_{1}p_{1}+x_{2}p_{2}+…+x_{n}p_{n}=\sum_{i=1}^{n}x_{i}p_{i}$$
在前门我们知道一组数据的方差用来衡量数据间的离散程度,同样随机变量的方差则是反应变量取值的离散程度。
$$\sigma^{2}=D(X)=E[X-E(X)]^{2}$$
简化后
$$\sigma^{2}=D(X)=E(X^{2})-[E(X)]^{2}$$
在实际应用中我们还常计算离散系数$V=\frac{}{E(X)}$,用来比较不同期望总体之间的离中趋势。
2.2二项分布
对于只包含两个结果的事件,它的每一个结果的出现的次数都是一个随机变量,并称这个随机变量服从二项分布。
把具有以下特点的试验,称其为n重贝努利试验:
- 包含n个相同的试验。
- 每次试验结果只有两个,即“成功”或“失败”。
- 对于每次试验“成功”的概率是相同的,“失败”亦相同。
- 试验相互独立。
其概率为:
$$P(X=x)=C_{n}^{x}p^{x}q^{n-x}, x=0,1,2,…,n$$
二项分布的期望和方差 :
$$E(X)=np$$
$$D(X)=npq$$
当n=1时,称为0-1分布。
2.3泊松分布
用来描述在一定时间范围内或在指定的面积或体积之内某一事件出现的次数的分布。
直接展示其概率公式与期望方差:
$$P(X)=\frac{\lambda^{2}e^{-\lambda}}{x!}$$
$$E(X)=D(X)=\lambda$$
ps:在n重贝努力试验中,当成功概率很小,试验次数很大时,二项分布近似等于泊松分布。
一般在$p\leqslant 0.25,n>20,np\leqslant 5$二者近似的效果较好。
3.连续型随机变量
如果随机变量X所有取值无法列举,而是取数轴上某一区间内的任一点,称X为连续型随机变量。
3.1概率密度与分布函数
连续型随机变量无法向离散型那样列出每一个值的概率,这里就引入了概率密度$f(x)$与分布函数$F(x)$。
概率密度需要满足:
- $$f(x)\geqslant 0$$
- $$\int_{-\infty }^{+\infty }f(x)dx=1$$
对于区间(a,b)上X的概率可以写为:
$$P(a<X<b)=\int_{a}{b}f(x)dx$$
分布函数定义为随机变量X取值不大于x的概率:
$$F(x)=P(X\leqslant x)=\int_{-\infty}{x}f(t)dt, -\infty<x<+\infty$$
于是$P(a<X<b)$也可写为$F(a)-F(b)$
显然$f(x)={F}'(x)$
对于期望与方差
$$E(X)=\int_{-\infty}{+\infty}xf(x)dx=\mu$$
$$D(X)=\int_{-\infty}{+\infty}[x-E(x)]^2f(x)dx=\sigma ^2$$
3.2正态分布
正太分布是以期望为中介左右对称的连续型分布,且概率密度在期望处取得最大值。
(1)概率密度
$$f(x)=\frac{1}{\sigma\sqrt{2\pi}}e^{-\frac{1}{2\sigma^2}(x-\mu)^2}, -\infty<x<+\infty$$
(2)标准正太分布
当$\mu=0,\sigma=1$时,称随机变量服从标准正态分布。记为$X~N(0,1)$。
对于一般的正太分布,可以通过以下式子转化为标准正态分布:
$$X~N(\mu,\sigma^2)$$
$$Z=\frac{X-\mu}{\sigma}~N(0,1)$$
名词解释
条件概率
当某一事件B已经发生时,求事件A发生的概率,称这种概率为事件B发生条件下事件4发生的条件概率,记为P(A|B),一般来说,P(A|B)≠P(A)。
随机变量与概率函数
在同一组条件下,如果每次试验可能出现这样或那样的结果,并且把所有的结果都能列举出来,即把X的所有可能值$x_1,x_{2},…,x_{n}$都能列举出来,而X的可能值$x_1,x_2,…,x_n$,具有确定概率$P(x_1),P(x_2),…,P(x_n)$,其中$P(x_i)=P(X=x_i)$,称为概率函数,则X称为P(X)的随机变量,P(X)称为随机变量X的概率函数。
概率密度函数
由于连续型随机变量可以取某一区间或整个实数上的任意一个值,所以我们不能像对离散型随机变量那样,列出每一个值及其相应的概率,而必须用其他的方法,通常用数学函数的形式和分布函数的形式来描述。当用函数$f(x)$来表示连续型随机变量时,我们将$f(x)$称为概率密度函数。
小结
随机变量与概率是统计学研究的基础,正是这种随机的概率让统计研究充满了无限的可能。
标签:infty,概率,概率分布,随机变量,mu,统计学,事件,sigma From: https://blog.csdn.net/qq_57143062/article/details/140297882正态分布扩展:
在质量管理中:
$P(\mu-3\sigma<X<\mu+3\sigma)=\phi(3)-\phi(-3)=0.9973$
表示当某质量特性X服从$N(\mu,\sigma^2)$,其特征值落在$3\sigma$外的概率仅为0.27%。是一个小概率事件一般不会发生,一但发生就认为质量出现了问题。
于是在此基础是延伸处理当今全球流行的6西格玛标准:
$P(\mu-6\sigma<X<\mu+6\sigma)=\phi(6)-\phi(-6)=0.999 999 998$。
在这一标准下质量的管控达到了十分严格的级别。