首页 > 其他分享 >第3章 n维向量

第3章 n维向量

时间:2024-06-13 22:29:02浏览次数:13  
标签:矩阵 正交 无关 线性相关 线性 向量

本笔记是对李永乐《线性代数辅导讲义》中各章节涉及的基础知识进行整理。本笔记主要用以应对夏令营面试中可能会问到的线性代数方面的问题,比较泛泛而谈,如果您对这些内容感兴趣,建议参考原书。大佬可自行绕路

更多章节内容参见:保研复习——线性代数篇-CSDN博客

目录

思维导图1:

思维导图2:

n维向量的基本概念:

向量的3种基本操作(向量加法、数乘向量、向量内积):

向量的长度、单位向量、零向量、正交向量:

线性组合:

线性相关与无关: 

线性表出、向量组等价:

极大线性无关组:

向量组的秩:

重要定理:

向量空间:

Schmidt正交化:

例题:

填空:

1)向量的加减:

2)判断向量组的线性相关性

3)求正交向量组:

4)若一个向量可由一个向量组线性表示,求系数

5)向量组B由向量组A线性表示,向量组A的线性相关/无关已知,求B的线性相关性

6)求向量组的极大线性无关组

7)向量组B由向量组A表示,求B的行列式

计算:


思维导图1:

思维导图2:

n维向量的基本概念:

向量的3种基本操作(向量加法、数乘向量、向量内积):

向量的长度、单位向量、零向量、正交向量:

线性组合:

线性相关与无关: 

线性表出、向量组等价:

极大线性无关组:

向量组的秩:

重要定理:

为什么推论2成立呢?

因为n+1个n维向量就是一个n*(n+1)的矩阵,而矩阵的行秩一定等于矩阵的列秩,所以这个矩阵的秩一定是小于等于n的,所以也必定小于等于n+1,所以它的最大线性无关组是由n个向量组成的(我举得是秩最大的时候的情况),那么它就还剩下一个向量不属于这个最大无关组,于是这个剩下的向量就可以由这个最大无关组表示出来,于是,这个矩阵就是线性相关的,对于秩小于n的情况,显然更加成立。

列增加,原本线性相关的仍然相关;列减少,原本线性无关的仍然线性无关;

行增加,原本线性无关的仍然无关;行减少,原本线性相关的仍然线性相关。 

两个向量线性相关->这两个向量共线;

三个向量线性相关->这三个向量共面。 

向量空间:

仅数学一要求,此外面试对这方面问的也比较少,因此这里不再详细说明,感兴趣可以参考原书。

Schmidt正交化:

例题:

填空:

1)向量的加减:

直接使用向量的加减公式进行计算即可

2)判断向量组的线性相关性

以下是我最初的想法:

列出向量组形成的矩阵(每个向量占据一行或者一列,这会决定接下来矩阵的初等变换是使用行变换还是列变换),每个向量占据一行就使用矩阵的初等行变换;每个向量占据一列就使用矩阵的初等列变换。

但是我观察到教材上有的例题在判断向量组的线性相关性时把向量按列放置,然后用初等行变换进行化简。这个和我上面的想法是违背的。

随后我在网上看到了这个回答:

(13 封私信 / 80 条消息) 怎样直观的理解「极大无关组」,以及极大无关组的求法? - 知乎 (zhihu.com)

其实两者都是可以的,不同之处在于:

我的想法:把多余向量消为零向量。

教材的想法:把向量尾部多余维数消为0。 

两者所能达成的目标是一样的。那么哪个更好一点呢?

答案是教材的想法,因为极大线性无关组求法优势在于可以找到更多线性无关组(不知道是不是所有,粗略想了一下我觉得是所有的),但是消向量的话只能找到一组。

结论:不要求用哪种变换的,求向量组的极大线性无关组,只要求只做行变换,或只做列变换,但不要求列向量只能进行初等行变换而行向量只能进行初等列变换。 

建议:还是建议大家和教材一致,用列向量表示矩阵,然后用初等行变换化简。

矩阵的秩就是化简后行简化阶梯形矩阵中非零行(非零列)的数目。

若矩阵的秩小于向量组中向量的个数,那么向量组就是线性相关的;否则是线性无关的。

3)求正交向量组:

按照Schmidt正交化公式进行计算即可,注意求正交向量组不需要对其进行单位化

正交化才是要对正交向量组再单位化

4)若一个向量可由一个向量组线性表示,求系数

本质就是解三元一次方程组,为了便于计算。我们可以先将向量组和目标向量组成增广矩阵,然后通过初等行变换化简增广矩阵,接着对化简后的增广矩阵求解相应的线性方程组。

5)向量组B由向量组A线性表示,向量组A的线性相关/无关已知,求B的线性相关性

我们之前在第二章 矩阵章节中了解了秩的主要公式,其中包括:

因此先将题目的公式由矩阵乘法表示出来,接着计算系数矩阵C的秩,由系数矩阵C的行列式为0可以得知系数矩阵的秩小于其向量组中向量的个数,那么向量组B的秩就小于3,因此是线性相关的 

6)求向量组的极大线性无关组

和2)类似,按照建议来的话。

然后挑出那些每一行第一个为非0元素所在的列,其组成的集合就是一个极大线性无关组。

7)向量组B由向量组A表示,求B的行列式

将向量组B由矩阵的乘法表示,再根据矩阵等式转行列式计算公式,即可求得。

计算:

  1. 求向量组的秩
  2. 求向量组的极大线性无关组
  3. 将其余向量由极大线性无关组表示

标签:矩阵,正交,无关,线性相关,线性,向量
From: https://blog.csdn.net/a131529/article/details/139655178

相关文章

  • 专用向量数据库:Watch your back!
    PostgreSQL生态再添利器:Timescale最新推出了两款创新的开源扩展——pgvectorscale和pgai,喊话专用向量数据库:Watchyourback!性能和成本效率创新高pgvectorscale扩展基于StreamingDiskANN索引和Timescale的统计二进制量化技术,在性能上取得了显著进步。基准测试显示,使用pgvecto......
  • [C++ Primer] 字符串、向量和数组
    [C++Primer]字符串、向量和数组标准库类型string标准库类型string表示可变长的字符序列,使用该类型需包含string头文件。作为标准库的i一部分,string定义在命名空间std中。拷贝初始化:使用等号(=)初始化一个变量直接初始化:不使用等号strings5="hiya"; //拷贝初始化s......
  • 36、matlab矩阵特征值、特征向量和奇异值
    1、名词说明1)特征值特征值(Eigenvalues)是矩阵的一个重要概念,在线性代数中起着非常重要的作用。给定一个n×n的方阵A,如果存在一个非零向量v,使得矩阵A作用于向量v后,得到的结果与向量v成比例(即Av=λv,其中λ为标量),那么λ就是矩阵A的特征值,v就是对应于特征值λ的特征向量。特征值......
  • 【机器学习】支持向量机(个人笔记)
    目录SVM分类器的误差函数分类误差函数距离误差函数C参数非线性边界的SVM分类器(内核方法)多项式内核径向基函数(RBF)内核源代码文件请点击此处!SVM分类器的误差函数SVM使用两条平行线,使用中心线作为参考系\(L:\w_1x_1+w_2x_2+b=0\)。我们构造两条线,一条在上面,一条在......
  • 机器学习之支持向量机
    什么是SVMSVM(全称SupportVectorMachine)中文名支持向量机。SVM是一种监督机器学习算法,是一种二分类模型,它的目的是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解。可用于分类或回归挑战。然而,它主要用于分类问题。最大间隔与分类......
  • r语言数据分析案例25-基于向量自回归模型的标准普尔 500 指数长期预测与机制分析
    一、背景介绍2007年的全球经济危机深刻改变了世界经济格局,引发了一系列连锁反应,波及各大洲。经济增长停滞不前,甚至在某些情况下出现负增长,给出口导向型发展中国家带来了不确定性。实体经济受到的冲击尤为严重,生产成本上升,利润下降,实际经济价值缩水。相比之下,金融部门的投资活......
  • 机器学习实践——支持向量机
    一.什么是支持向量机支持向量机(SVM)是一种广泛使用的监督学习方法,主要用于分类和回归分析。它的基本原理是找到一个超平面(在二维空间中是一条直线),以最大化不同类别之间的边界。以下是SVM的关键概念:超平面:决策边界,用于分类的直线或平面。 边界(Margin):从超平面到最近的数据点的最......
  • 标量、向量、矩阵、张量是什么?
    参考视频:标量、向量、矩阵、张量-机器学习-李文哲AI人工智能培训_哔哩哔哩_bilibili参考资料:深度学习基础:标量、向量、矩阵、张量_深度学习本质是矩阵-CSDN博客标量是一个独立存在的数,比如线性代数中的一个实数5就可以被看作一个标量,所以标量的运算相对简单,与平常做的算数运......
  • 【线性代数】向量空间,子空间
    向量空间设V为n维向量的集合,如果V非空,且集合V对于向量的加法以及数乘两种运算封闭,那么就称集合V为向量空间x,y是n维列向量。x向量组等价说明可以互相线性表示向量组等价则生成的向量空间是一样的子空间例题18是三位向量的全体R3的子空间。而例题19只是全体R3的子集......
  • Matlab实现基于SVM-Adaboost支持向量机结合Adaboost集成学习时间序列预测(股票价格预测
    %加载时间序列数据data=load(‘stock_data.mat’);X=data.X;%特征矩阵y=data.y;%目标向量%划分训练集和测试集train_ratio=0.8;%训练集比例train_size=round(train_ratio*size(X,1));train_X=X(1:train_size,......