矩阵特征向量和特征值的含义,几何物理意义
以下转自:https://www.zhihu.com/question/21874816
=========================================
以下来自:https://wenku.baidu.com/view/fa9bd936660e52ea551810a6f524ccbff021ca55.html
矩阵的特征值与特征向量的几何意义
1、矩阵乘法的几何意义
矩阵乘法的几何意义就是对一个向量进行一定的变化,变成一个新的向量。在变化过程中,原向量主要发生旋转、伸缩的变化。如果矩阵对某些向量只发生伸缩变化的话,那么这些向量就称为这个矩阵的特征向量,伸缩的比例就是特征值。
例如,这个矩阵的线性变化形式如下
如果矩阵不是对称的,则该矩阵描述的变换如下:
这其实相当于在平面对一个轴做拉伸变化,图中的蓝色箭头就是最主要的变化方向。变化的方向可能不止一个,但只需要描述好这个变换的最主要的变换方向就好了。
2、特征值分解与特征向量
设A为一个方阵,v为一个非零列向量,若,则称为A的特征值,v为矩阵A 对应于特征值的特征向量。
特征值分解: 将矩阵A分解为如下形式:
。Q为矩阵A的特征向量v组成的矩阵(一个变换方阵的所有特征向量组成了这个变换矩阵的一组基),为一个对角阵,主对角线上的元素为A的特征值从小到大排列。这些特征值所对应的特征向量用来描述矩阵A的变换方向,从最主要的变换到最次要的变换排列。也就是说,一个矩阵的信息可由其特征值和特征向量来描述。
对于矩阵为高维的情况下,那么这个矩阵就是高维空间下的一个线性变换。可以想象,这个变换也同样有很多的变换方向,我们通过特征值分解得到的前N个特征向量,那么就对应了这个矩阵最主要的N个变化方向。我们利用这前N个变化方向,就可以近似这个矩阵(变换)。
总结一下,特征值分解可以得到特征值与特征向量,特征值表示的是这个特征到底有多重要,而特征向量表示这个特征是什么。不过,特征值分解也有很多的局限,比如说变换的矩阵必须是方阵。
在机器学习的特征提取中,对应特征值越大的特征向量包含的信息越多。若果某特征向量对应的特征值很小,就可以把它去掉(降维),只保留特征值大的方向的信息,这样就可以减少数据量,PCA降维就是应用了这一原理。
=========================================
就是寻找一个正交系去表示你原来的函数,特征向量就是新的正交系的坐标轴,特征值就是坐标轴对应的坐标。
=========================================
- 矩阵乘法即线性变换——对向量进行旋转和长度伸缩,效果与函数相同;
- 特征向量指向只缩放不旋转的方向;
- 特征值即缩放因子;
- 旋转矩阵无实数特征向量和特征值。
=========================================
=========================================
REF
https://www.cnblogs.com/zf-blog/p/7890033.html
https://www.zhihu.com/question/21874816 【great】
https://wenku.baidu.com/view/fa9bd936660e52ea551810a6f524ccbff021ca55.html【great】
https://www.zhihu.com/question/29589753/answer/1635329454
https://zhuanlan.zhihu.com/p/353774689?utm_medium=social&utm_oi=64514645032960 【great】
https://www.zhihu.com/question/29589753/answer/1635329454
标签:特征值,特征向量,变换,矩阵,https,com From: https://www.cnblogs.com/emanlee/p/16631715.html