在随机信号分析中,不相关、正交、统计独立等是非常重要的,这里进一步讨论各自的严格概念和相互关系。
当两个随机过程保持统计独立时,它们必然是不相关的,但反过来则不一定成立,即不相关的两个随机过程不一定能保持统计独立,唯有在高斯随机过程中才是例外。这就是说,从统计角度看,保持统计独立的条件要比不相关还要严格。
另外,在确知信号分析中已知,内积为零可作为两个信号之间正交的定义。对于随机过程来说,除了互协方差函数外,还要求至少其中有一个随机过程的均值等于零,这时两个随机过程才互相正交。因此正交的条件满足了,不相关的条件就自然满足,但是反过来就未必然。可见正交条件要比不相关条件严格些。如果统计独立的条件能满足,则正交条件也自然满足,但反过来也不一定成立。因此统计独立的条件最严格。
1.统计独立必不相关
两随机变量或者两个随机过程,若它们的互相关或互相关函数等于两者均值之积;或者协方差和相关系数都等于0,则它们之间不相关。三个条件实质相同。
统计独立比不相关含义更严格,前者表明一个随机变量的任一取值的变化都不会引起另一个变量的任何取值的变化;而不相关则是统计平均意义下相互无影响,即间或存在的相互影响,经集合平均后显示不出来,宏观影响为0。
但是这一结论对于两个高斯变量或过程却是一例外。
2.不相关与正交关系
在通信系统中,总是力图按不相关或正交关系来设计在同一信道随机发送的二元或多元信号。对于多数通信信号以及噪声来说,基本上均值都为0,于是在实际应用中,不相关与正交没有本质区别。
统计独立的充要条件是两个随机变量的联合概率密度分布函数等于它们各自概率密度分布函数的乘积。
即p(f1,f2)=p(f1)p(f2), 很容易证明,统计独立必然导致不相关。
一些随机现象经过大量观察,在它们出现的结果之间不呈现显著联系,因此认为这些随机现象的规律性相互独立,称为统计独立性。
在机率论里,说两个事件是独立的,直觉上是指一事件的发生不会影响到另一事件发生的机率。例如,骰子掷出“6”的事件和其在下一次也掷出“6”的事件是相互独立的。类似地,两个随机变量是独立的,若其在一事件给定观测量的条件机率分布和另一事件没有被观测的机率分布是一样的。例如,第一次掷骰子掷出的数目和第二次会出现的数目是相互独立的。
相关性是指当两个因素之间存在联系的时候,一个典型的表现是:一个变量会随着另一个变量变化。相关又会分成正相关和负相关两种情况。举例说明,下雪外面就会变冷,这是正相关。出太阳就不会下雨,这是负相关。
相关系数:考察两个事物(在数据里我们称之为变量)之间的相关程度。
如果有两个变量:X、Y,最终计算出的相关系数的含义可以有如下理解:
(1)、当相关系数为0时,X和Y两变量无关系。
(2)、当X的值增大(减小),Y值增大(减小),两个变量为正相关,相关系数在0.00与1.00之间。
(3)、当X的值增大(减小),Y值减小(增大),两个变量为负相关,相关系数在-1.00与0.00之间。
相关系数的绝对值越大,相关性越强,相关系数越接近于1或-1,相关度越强,相关系数越接近于0,相关度越弱。
通常情况下通过以下取值范围判断变量的相关强度:
相关系数 0.8-1.0 极强相关
0.6-0.8 强相关
0.4-0.6 中等程度相关
0.2-0.4 弱相关
0.0-0.2 极弱相关或无相关
http://zh.wikipedia.org/wiki/%E7%B5%B1%E8%A8%88%E7%8D%A8%E7%AB%8B
http://zh.wikipedia.org/zh-cn/%E7%9B%B8%E5%85%B3