首页 > 其他分享 >每天进步一点点《SVD学习》

每天进步一点点《SVD学习》

时间:2022-12-14 16:32:07浏览次数:50  
标签:特征值 特征向量 SVD 矩阵 一点点 分解 VT 奇异 进步


详情请见下载资源处,请搜索 《每天进步一点点《SVD学习》.docx》

一:一些搜罗的预备知识(搜罗的)

1.1:特征值和特征向量
矩阵:
1)是一堆建立了某种运算时识别规则的数字
2)是一列一列的列向量。或者是一行一行的行向量
3)可以代表是一个图像,每一个元素值都是一个像素值范围在(0~255)
4)是一个线性变换,将一组或者一个向量变换成另一组或一个向量。这可还可以理解成是空间几何中的坐标/向量变换。

1.2:矩阵的本质:
矩阵本质上是线性变换,在空间中代表的某个基-坐标系/向量的线性转变,可以使缩放,旋转,投影。

1.3:特征值分解和奇异值分解:都是给一个矩阵(线性变换)找一组特殊的基
• 特征值分解:找到了特征向量这一组基,在这组基下该线性变换只有缩放效果
• 奇异值分解(SVD):则是找到两组基,从一组基到另一组的线性变换的旋转、缩放、投影三种功能独立地展示出来了

1.4:特征值分解-方阵
• 只有方阵才能进行特征值分解
• 奇异值和特征值的重要意义相似,都是为了提取出矩阵的主要特征。
• 特征值的本质:
• 特征值分解:把方阵分解为缩放矩阵 + 特征向量矩阵,没有旋转或旋转角度为0
• 特征值-变化的主次:如果我们想要描述好一个变换,那我们就描述好这个变换主要的变化方向就好了。来看看特征值分解的式子,分解得到的矩阵是一个对角阵,里面的特征值是由大到小排列的,这些特征值所对应的特征向量就是描述这个矩阵变化方向(从主要的变化到次要的变化排列)
• 高维线性变换:当矩阵是高维的情况下,那么这个矩阵就是高维空间下的一个线性变换,这个线性变化可能没法通过图片来表示,但是可以想象,这个变换也同样有很多的变换方向,我们通过特征值分解得到的前N个特征向量,那么就对应了这个矩阵最主要的N个变化方向。我们利用这前N个变化方向,就可以近似这个矩阵(变换)。也就是之前说的:提取这个矩阵最重要的特征。
• 特征值分解总结:特征值分解可以得到:
• 特征值:特征值表示的是这个特征到底有多重要
• 特征向量:而特征向量表示这个特征是什么,可以将每一个特征向量理解为一个线性的子空间,我们可以利用这些线性的子空间干很多的事情。
• 特征值分解的局限:特征值分解也有很多的局限,比如说变换的矩阵必须是方阵。

1.4.1:一般方阵的分解(相似对角化)

• 设A∈Rn×n,则A可表示为:

每天进步一点点《SVD学习》_机器学习

• X的列:为A的特征向量。跟排列顺序无关,只要对应相应的∧即可。
• ∧为对角矩阵:对角线上的值为A的特征值,一般习惯上按从大到小的顺序排列,对应于也会调整P中各个 特征向量的位置。
• 一般矩阵不同特征值对应的特征向量是线性无关的。

1.4.2:对称实数方阵的分解(合同)

• 设A∈Rn×n,且是对称矩阵,则S可表示为:

每天进步一点点《SVD学习》_特征值_02

• U的列:为S的单位正交特征向量,即U是正交矩阵(列/行向量正交性、归一化,且

每天进步一点点《SVD学习》_机器学习_03


),对称矩阵不同特征值对应的特征向量是正交的,如果出现重根,则不一定会正交。

• ∧为对角矩阵:对角线上的值为A的特征值,按从大到小的顺序排列。

• U就是矩阵A所定义的坐标系:U的n个列向量组成A的一个完备的标准正交特征向量系。

1.5:奇异值分解(SVD) - 非方阵

1.5.1:SVD定义

• 只有非方阵才能进行奇异值分解

• SVD分解:把矩阵分解为缩放矩阵+旋转矩阵+特征向量矩阵

• A的非0奇异值的个数等于它的秩r

每天进步一点点《SVD学习》_机器学习_04


每天进步一点点《SVD学习》_特征向量_05

• 设
A∈Rm×nA∈Rm×n,且rank(A)rank(A) = rr (rr > 0),则矩阵A的奇异值分解(SVD)可表示为:
U和V都为正交矩阵
• 几何含义:
• 表示找到了U和V这样两组基:A矩阵的作用是将一个向量从V这组正交基向量的空间旋转到U这组正交基向量的空间,并对每个方向进行了一定的缩放(由Σ决定),缩放因子就是各个奇异值。如果V的维度比U 大,则表示还进行了投影。
• 奇异值分解:将一个矩阵原本混合在一起的三种作用效果,分解出来了。

1.5.2:SVD分解图示

每天进步一点点《SVD学习》_特征值_06


每天进步一点点《SVD学习》_特征值_07


奇异值σ跟特征值类似,在矩阵Σ中也是从大到小排列,而且σ的减少特别的快,在很多情况下,前10%甚至1%的奇异值的和就占了全部的奇异值之和的99%以上了。也就是说,我们也可以用前k个大的奇异值来近似描述矩阵,这里定义一下部分奇异值分解:

A m×n ≈ U m×k * Σ k×k * VT k×n

右边的三个矩阵相乘的结果将会是一个接近于A的矩阵,在这儿,k越接近于n,则相乘的结果越接近于A。而这三个矩阵的面积之和(在存储观点来说,矩阵面积越小,存储量就越小)要远远小于原始的矩阵A,我们如果想要压缩空间来表示原矩阵A,我们存下这里的三个矩阵:U、Σ、V就好了。

二:特征值/特征向量分解 && SVD分解的数学推理过程
2.1 :特征值/特征向量分解(相似对角化)(原创的)
因为:
A * vi = vi * λi
A = vi * λi * vi-1
以此类推:可得
A * v1 = v1 * λ1
A * v2 = v2 * λ2
A * v3 = v3 * λ3
。。。。。。。。
A * vn = vn * λn

将上述结果向量化处理,令
(A *v1, A v2, A v3…… A *vn)= (λ1v1,λ2v2,λ3v3…… λnvn)

A (v1, v2, v3……vn)= (v1, v2, v3……vn) Diag(λ1, λ2, λ3 …. λn)

整理得
V = (v1, v2, v3 …. vn) 特征向量组
∧= Diag(λ1, λ2, λ3 …. λn) 对角矩阵,对角线上是特征值,其他元素为0
相似对角化。
A = V V-1
λi和 vi 的顺序无关,一般习惯上按照特征值从大到小的顺序,可以看到多个主要的特征和特征值,然后选取主要的特征值和特征向量即可约等于原矩阵

2.2 :SVD分解(合同对角化)

非方阵,无法进行特征值和特征向量分解

假设 A=UΣVT , 其中U和V都是正交矩阵(PP-1=E; P-1 = P T),正交矩阵具有几何不变性。
1:
A
AT = UΣVT (UΣVT)T = UΣVT VΣTUT=UΣΣTUT
两边右乘U得,A ATU = UΣΣTUTU = UΣΣT
经观察:(A
AT)U = U(ΣΣT),所以U 是A* AT的特征向量组,ΣΣT是A* AT的特征值,在对角线上。因此,Σ是A* AT的特征值的开根号值。
U成为左奇异矩阵,正交的。
与顺序无关,一般习惯上按照特征值从大到小的顺序,可以看到多个主要的特征和特征值。

2:
AT* A =(UΣVT)T * UΣVT = VΣTUT* UΣVT =VΣTΣVT
两边右乘V得,AT* AV = VΣTΣVT V = VΣTΣ
经观察:(AT* A)V= V(ΣTΣ),所以V 是AT* A的特征向量组,ΣTΣ是AT* A的特征值,在对角线上。因此,Σ是AT* A的特征值的开根号值。
V成为右奇异矩阵,正交的。
与顺序无关,一般习惯上按照特征值从大到小的顺序,可以看到多个主要的特征和特征值。

3:A=UΣVT
两边同时乘以V得
AV = UΣVTV = UΣ ====》 AV = UΣ

具有以下特征。主要是利用正交性,和特征值的大小排列,得到主要的特征,用于压缩和降维。下一章节介绍降维。

每天进步一点点《SVD学习》_矩阵_08


奇异值σ跟特征值类似,在矩阵Σ中也是从大到小排列,而且σ的减少特别的快,在很多情况下,前10%甚至1%的奇异值的和就占了全部的奇异值之和的99%以上了。也就是说,我们也可以用前k个大的奇异值来近似描述矩阵,这里定义一下部分奇异值分解:

A m×n ≈ U m×k * Σ k×k * VT k×n

右边的三个矩阵相乘的结果将会是一个接近于A的矩阵,在这儿,k越接近于n,则相乘的结果越接近于A。而这三个矩阵的面积之和(在存储观点来说,矩阵面积越小,存储量就越小)要远远小于原始的矩阵A,我们如果想要压缩空间来表示原矩阵A,我们存下这里的三个矩阵:U、Σ、V就好了。


标签:特征值,特征向量,SVD,矩阵,一点点,分解,VT,奇异,进步
From: https://blog.51cto.com/u_12419595/5937535

相关文章