1.基本原理
PCA是机器学习和统计学领域一类特征降维算法。由于样本数据往往会有很多的特征,这会带来以下挑战:
- 样本的维度超过3维则无法可视化;
- 维度过高可能会存在特征冗余,不利于模型训练,等等;
而PCA的目的就是在降低特征维度的同时,最大程度地保证原始信息的完整。
2.案例
点击查看代码
import numpy as np
import matplotlib.pyplot as plt
#代降维数据点的构建
num = 20
x = np.linspace(-5,5,num)
y = x + np.random.rand(num)
data = np.row_stack((x,y)) #2*20
plt.scatter(x,y)
#计算数据集的协方差矩阵
cov = (1/num) * np.dot(data,data.T)
#求解协方差的特征值与特征向量
e,v = np.linalg.eig(cov)
print('特征值:',e)
print('特征向量',v)
#利用特征向量组成的矩阵对原始数据进行线性变换
trans_data = np.dot(v,data)
plt.scatter(trans_data[0],trans_data[1])
plt.ylim(-4,4)
plt.show()
如图所示,原始二维数据具有很强的线性相关性,降维后的数据在y方向上几乎为常数。直观来看,原本左图是以x和y轴为坐标轴,而在pca降维后的数据可以看做是以y=x为x轴,并且其另外一个方向上的数据因为变化不大可以被删除,达到降维的目的。
标签:plt,特征向量,Python,Component,Analysis,num,np,PCA,data From: https://www.cnblogs.com/YanzhanCode/p/hello.html