目录
一、SVD奇异值分解
1、什么是SVD
SVD就是奇异值分解。在机器学习中,SVD是一种常用的矩阵分解方法,用于将一个矩阵分解为三个矩阵的乘积。具体来说,对于一个m×n的实数矩阵A,SVD将其分解为以下形式:
A = UΣV^T
其中,U是一个m×m的正交矩阵,Σ是一个m×n的对角矩阵,V^T是一个n×n的正交矩阵。Σ的对角线上的元素称为奇异值,表示原始矩阵A在对应的奇异向量方向上的重要程度。
2、SVD的应用
1)数据降维
可以通过保留最重要的奇异值和对应的奇异向量,将原始数据降维到一个较低维度的表示,以减少数据的冗余和计算复杂度。
2)推荐算法
SVD可以分解用户-项目评分矩阵,从而得到用户和项目在一个低维的潜在空间中的表示,进而进行推荐。
3)自然语言处理
SVD可以用于词向量的降维和表示,从而实现语义分析任务,如文本分类、情感分析、语义相似度计算,也可以用于对大规模文本数据进行降维和压缩,从而提高文本处理和存储的效率。