二维空间-Singular
平行的线是linear dependence的,singular的,相交的线是Non-singular的,交点就是二元方程解
在机器学习的计算过程中,等式右边的常数全部转化为0,确保每条线都经过(0,0)
三维空间-singular平面相交于一条线或者重叠,则为singular
线性相关有唯一解的方程组,是singular,所以不是linear dependence(线性相关)
可以通过部分方程推出其他方程,则相关
行列式2*2矩阵,主对角线上的数字乘积-反对角线的数字乘积
行列式=0,则矩阵是singular
下半部为0的矩阵,行列式=对角的乘积,非零则non-singular
singular
解方程 行梯队 矩阵Rank(秩) 矩阵的行移动,不改变singular 矩阵的整行*数字,不改变,不改变singular 矩阵的非零行的数量 Rank of Matrixthe rank of martix if the information of this system
import numpy as np # 定义矩阵A A = np.array([[1, 2, 3], [4, 5, 6], [2, 1, 1]]) # 计算矩阵的秩 rank = np.linalg.matrix_rank(A) print("矩阵A的秩为:", rank) # 输出:矩阵A的秩为: 3图片压缩
原始图片的存储矩阵-Rank200,压缩后的Rank50
肉眼看不出区别,但存储空间降低75%
rank=矩阵行数,矩阵is non-singular,矩阵携带了最大的信息量,每行的信息都不相同
Rank=2-(Dimension of solution space)
dimension 解空间的维度
System1 只有一个点 解空间的维度=0
在更一般的情况下,如果有一个线性方程组包含 n
个未知数和 m
个方程,并且这个方程组有解,那么解空间的维度通常是 n - m
(当然,这取决于方程组的具体形式,以及方程是否线性独立)。
矩阵变换成行梯形矩阵
对角线元素只有1没有0代表每行都有有效信息,矩阵non-singular
矩阵运算
vector 方向(direction)和大小(size,magnitude)
vector 矢量加法
每个维度的数字相加
矢量的距离ab两个矢量的距离-三种表示方法
- a-b距离矢量的绝对值和
- a-b距离矢量的平方和的平方根
- b到a的矢量角度的cos值
矢量的每个维度做乘法
点积-dotproduct|u|向量的模长
<u,v>=|u|·|v|cos
矩阵向量运算 矩阵向量的线性变换坐标系的映射
identity matrix 单位矩阵/恒等矩阵 inverse matrix 逆矩阵取消上次矩阵变换的矩阵
神经网络 主成分分析PrincipalComponentAnalysis 降维算法 转换矩阵的行列式 determinant即转换后坐标系的单位面积 矩阵乘积的行列式 = 分别的行列式的乘积det(AB)=det(A)·det(B)
矩阵的逆矩阵的行列式=矩阵的行列式的倒数
空间的基任意两个不在一条直线上的向量都可以叫basis
在空间中的任意一点,可以通过向量的常数次组合到达
它们的组合叫span跨度
空间的跨度span从远点经过span的向量能够到达坐标系的任意一点的最小的向量集叫basis
n维空间的basis的个数是n
特征基 eigenbasis 特征向量特征值
线性无关 标签:机器,singular,矢量,矩阵,rank,学习,线性代数,行列式,向量 From: https://www.cnblogs.com/watch2learn/p/18084794