首页 > 其他分享 >【解析几何笔记】9. 向量的内积运算

【解析几何笔记】9. 向量的内积运算

时间:2024-08-28 21:26:09浏览次数:5  
标签:内积 cdot 解析几何 beta e3 pmb alpha e1 向量

9. 向量的内积运算

定义:有向量 α , β \pmb{\alpha},\pmb{\beta} α,β, α ⋅ β = ∣ α ∣ ∣ β ∣ ⋅ cos ⁡ < α , β > \pmb{\alpha}\cdot\pmb{\beta}=|\pmb{\alpha}||\pmb{\beta}|\cdot\cos<\pmb{\alpha},\pmb{\beta}> α⋅β=∣α∣∣β∣⋅cos<α,β>(结果是一个数)

  • α ⋅ β = 0 ⇔ α ⊥ β \pmb{\alpha}\cdot\pmb{\beta}=0\Leftrightarrow\pmb{\alpha}\bot\pmb{\beta} α⋅β=0⇔α⊥β
  • α ⋅ α = ∣ α ∣ 2 ⇒ α ⋅ α \pmb{\alpha}\cdot\pmb{\alpha}=|\pmb{\alpha}|^{2}\Rightarrow\sqrt{\pmb{\alpha}\cdot\pmb{\alpha}} α⋅α=∣α∣2⇒α⋅α
  • < α , β > = arccos ⁡ α ⋅ β ∣ α ∣ ∣ β ∣ <\pmb{\alpha},\pmb{\beta}>=\arccos\frac{\pmb{\alpha}\cdot\pmb{\beta}}{|\pmb{\alpha}||\pmb{\beta}|} <α,β>=arccos∣α∣∣β∣α⋅β​
  • 【交换律】 α ⋅ β = β ⋅ α \pmb{\alpha}\cdot\pmb{\beta}=\pmb{\beta}\cdot\pmb{\alpha} α⋅β=β⋅α
  • P β α = ∣ α ∣ cos ⁡ < α , β > β 0 = ∣ α ∣ cos ⁡ < α , β > β ∣ β ∣ ⇒ α ⋅ β = P β α β 0 ∣ β ∣ P_{\pmb{\beta}}\pmb{\alpha}=|\alpha|\cos<\pmb{\alpha},\pmb{\beta}>\pmb{\beta}_{0}=|\alpha|\cos<\pmb{\alpha},\pmb{\beta}>\frac{\pmb{\beta}}{|\pmb{\beta}|}\Rightarrow\pmb{\alpha}\cdot\pmb{\beta}=\frac{P_{\pmb{\beta}}\pmb{\alpha}}{\pmb{\beta}_{0}}|\pmb{\beta}| Pβ​α=∣α∣cos<α,β>β0​=∣α∣cos<α,β>∣β∣β​⇒α⋅β=β0​Pβ​α​∣β∣
  • 【定理1.3】内积具有双线性性
    (1) α ⋅ ( β + γ ) = α ⋅ β + α ⋅ γ \pmb{\alpha}\cdot(\pmb{\beta}+\pmb{\gamma})=\pmb{\alpha}\cdot\pmb{\beta}+\pmb{\alpha}\cdot\pmb{\gamma} α⋅(β+γ)=α⋅β+α⋅γ
    ( α + γ ) ⋅ β = α ⋅ β + γ ⋅ α (\pmb{\alpha}+\pmb{\gamma})\cdot\pmb{\beta}=\pmb{\alpha}\cdot\pmb{\beta}+\pmb{\gamma}\cdot\pmb{\alpha} (α+γ)⋅β=α⋅β+γ⋅α
    (2) α ⋅ ( λ β ) = λ α β = ( λ α ) β \pmb{\alpha}\cdot(\lambda \pmb{\beta})=\lambda \pmb{\alpha}\pmb{\beta}=(\lambda\pmb{\alpha})\pmb{\beta} α⋅(λβ)=λαβ=(λα)β
    【证】(1) ( α + γ ) ⋅ β = P β ( α + γ ) β 0 ∣ β ∣ = P β α + P β γ β 0 ∣ β ∣ ( β 0 与分母的向量都平行 ) = P β α β 0 + P β γ β 0 = α ⋅ β + α ⋅ γ (\pmb{\alpha}+\pmb{\gamma})\cdot\pmb{\beta}=\frac{P_{\pmb{\beta}}(\pmb{\alpha}+\pmb{\gamma})}{\pmb{\beta}_{0}}|\pmb{\beta}|=\frac{P_{\pmb{\beta}}\pmb{\alpha}+P_{\pmb{\beta}}\pmb{\gamma}}{\pmb{\beta}_{0}}|\pmb{\beta}|(\pmb{\beta}_{0}与分母的向量都平行)=\frac{P_{\pmb{\beta}}\pmb{\alpha}}{\pmb{\beta}_{0}}+\frac{P_{\pmb{\beta}}\pmb{\gamma}}{\pmb{\beta}_{0}}=\pmb{\alpha}\cdot\pmb{\beta}+\pmb{\alpha}\cdot\pmb{\gamma} (α+γ)⋅β=β0​Pβ​(α+γ)​∣β∣=β0​Pβ​α+Pβ​γ​∣β∣(β0​与分母的向量都平行)=β0​Pβ​α​+β0​Pβ​γ​=α⋅β+α⋅γ
    (2) ( λ α ) ⋅ β = P β λ α β 0 ∣ β ∣ = λ p β α β 0 ∣ β ∣ = λ α β (\lambda\pmb{\alpha})\cdot\pmb{\beta}=\frac{P_{\pmb{\beta}}{\pmb{\lambda \pmb{\alpha}}}}{\pmb{\beta}_{0}}|\pmb{\beta}|=\frac{\lambda p_{\pmb{\beta}}\pmb{\alpha}}{\pmb{\beta}_{0}}|\pmb{\beta}|=\lambda \pmb{\alpha}\pmb{\beta} (λα)⋅β=β0​Pβ​λα​∣β∣=β0​λpβ​α​∣β∣=λαβ

【例】用向量的内积来证明余弦定理。

【例1.12】

9.1 内积的坐标计算公式

有空间仿射坐标系 [ O : e 1 , e 2 , e 3 ] [O:\pmb{e}_{1},\pmb{e}_{2},\pmb{e}_{3}] [O:e1​,e2​,e3​], α = ( a 1 , a 2 , a 3 ) , β = ( b 1 , b 2 , b 3 ) \pmb{\alpha}=(a_{1},a_{2},a_{3}),\pmb{\beta}=(b_{1},b_{2},b_{3}) α=(a1​,a2​,a3​),β=(b1​,b2​,b3​)即 α = a 1 e 1 + a 2 e 2 + a 3 e 3 , β = b 1 e 1 + b 2 e 2 + b 3 e 3 \pmb{\alpha}=a_{1}\pmb{e}_{1}+a_{2}\pmb{e}_{2}+a_{3}\pmb{e}_{3},\pmb{\beta}=b_{1}\pmb{e}_{1}+b_{2}\pmb{e}_{2}+b_{3}\pmb{e}_{3} α=a1​e1​+a2​e2​+a3​e3​,β=b1​e1​+b2​e2​+b3​e3​
则 α ⋅ β = ( a 1 e 1 + a 2 e 2 + a 3 e 3 ) ( b 1 e 1 + b 2 e 2 + b 3 e 3 ) = a 1 b 1 e 1 2 + a 1 b 1 e 1 e 2 + a 1 b 3 e 1 e 3 + a 2 b 1 e 1 e 2 + a 2 b 2 e 2 2 + a 2 b 3 e 2 e 3 + a 3 b 1 e 1 e 3 + a 3 b 2 e 2 e 3 + a 3 b 3 e 3 2 \pmb{\alpha}\cdot\pmb{\beta}=(a_{1}\pmb{e}_{1}+a_{2}\pmb{e}_{2}+a_{3}\pmb{e}_{3})(b_{1}\pmb{e}_{1}+b_{2}\pmb{e}_{2}+b_{3}\pmb{e}_{3})=a_{1}b_{1}\pmb{e}_{1}^{2}+a_{1}b_{1}\pmb{e}_{1}\pmb{e}_{2}+a_{1}b_{3}\pmb{e}_{1}\pmb{e}_{3}+a_{2}b_{1}\pmb{e}_{1}\pmb{e}_{2}+a_{2}b_{2}\pmb{e}_{2}^{2}+a_{2}b_{3}\pmb{e}_{2}\pmb{e}_{3}+a_{3}b_{1}\pmb{e}_{1}\pmb{e}_{3}+a_{3}b_{2}\pmb{e}_{2}\pmb{e}_{3}+a_{3}b_{3}\pmb{e}_{3}^{2} α⋅β=(a1​e1​+a2​e2​+a3​e3​)(b1​e1​+b2​e2​+b3​e3​)=a1​b1​e12​+a1​b1​e1​e2​+a1​b3​e1​e3​+a2​b1​e1​e2​+a2​b2​e22​+a2​b3​e2​e3​+a3​b1​e1​e3​+a3​b2​e2​e3​+a3​b3​e32​
若 [ O : e 1 , e 2 , e 3 ] [O:\pmb{e}_{1},\pmb{e}_{2},\pmb{e}_{3}] [O:e1​,e2​,e3​]是直角坐标系, e i ⊥ e j ( i ≠ j ) , ∣ e i ∣ = 1 ⇔ e i e j = 0 ( i ≠ j ) , e i 2 = 1 \pmb{e}_{i}\bot\pmb{e}_{j}(i\ne j),|\pmb{e}_{i}|=1\Leftrightarrow \pmb{e}_{i}\pmb{e}_{j}=0(i\ne j),\pmb{e}_{i}^{2}=1 ei​⊥ej​(i=j),∣ei​∣=1⇔ei​ej​=0(i=j),ei2​=1,则 α ⋅ β = ( a 1 e 1 + a 2 e 2 + a 3 e 3 ) ( b 1 e 1 + b 2 e 2 + b 3 e 3 ) = a 1 b 1 + a 2 b 2 + a 3 b 3 \pmb{\alpha}\cdot\pmb{\beta}=(a_{1}\pmb{e}_{1}+a_{2}\pmb{e}_{2}+a_{3}\pmb{e}_{3})(b_{1}\pmb{e}_{1}+b_{2}\pmb{e}_{2}+b_{3}\pmb{e}_{3})=a_{1}b_{1}+a_{2}b_{2}+a_{3}b_{3} α⋅β=(a1​e1​+a2​e2​+a3​e3​)(b1​e1​+b2​e2​+b3​e3​)=a1​b1​+a2​b2​+a3​b3​
【例14】有正四面体

标签:内积,cdot,解析几何,beta,e3,pmb,alpha,e1,向量
From: https://blog.csdn.net/qq_30204431/article/details/141560963

相关文章

  • 【pytorch深度学习——小样本学习策略】网格搜索和遗传算法混合优化支持向量机的小样
    最近需要根据心率血氧数据来预测疲劳度,但是由于心率血氧开源数据量较少,所以在训练模型时面临着样本数量小的问题,需要对疲劳程度进行多分类,属于小样本,高维度问题。在有限样本的条件之下,必须要需要选择合适的深度学习算法同时满足模型的泛化能力和学习精度。其次,由于小样本学习的......
  • 向量数据库 Milvus:智能检索新时代
    文章目录Milvus核心技术Milvus基本特点索引策略相似度计算图像检索演示Milvus基础维护环境搭建建立向量索引数据导入数据更新数据删除用户权限管理Milvus评估与调优性能评估调优技巧Milvus数据安全安全策略数据备份与恢复Milvus扩展性案例演示电影推荐在线广告......
  • 向量数据库Faiss的搭建与使用
    Faiss(FacebookAISimilaritySearch)是一个高效的向量相似性搜索库,专为高维向量数据的搜索和聚类设计。以下是如何搭建和使用Faiss的详细步骤。1.环境准备安装依赖首先,确保你的开发环境满足Faiss的要求。Faiss支持Python,假设你要使用Python版本。安装Anaconda或Miniconda(......
  • 火鹰算法(FHO)优化支持向量机原理及Matlab代码
    目录0引言1数学模型2优化方式3Matlab代码3.1伪代码3.2FHO主函数代码3.3FHO-SVM4视频讲解0引言火鹰优化(FireHawkOptimizer,FHO)算法是由Mahdi Azizi等人于2022年提出一种基于黑鸢(Milvusmigrans)、啸栗鸢(Haliastursphenurus)和褐隼(Falcoberigora)......
  • 向量数据库Faiss的搭建与使用|Faiss|向量数据库|高效检索|机器学习|大规模数据
    目录1.Faiss概述1.1Faiss的背景与重要性1.2Faiss的基本概念与特点2.Faiss的安装与环境配置2.1环境要求2.2Faiss的安装2.3验证安装3.Faiss的基本使用3.1创建索引与添加向量3.2执行查询3.3向量的压缩与内存优化4.Faiss的高级功能与优化4.1GPU加速与多G......
  • 详细说明:向量数据库Faiss的搭建与使用
    当然,Faiss(FacebookAISimilaritySearch)是一个用来高效地进行相似性搜索和密集向量聚类的库。它能够处理大型数据集,并且在GPU上的性能表现尤为出色。下面详细介绍Faiss的搭建与使用。1.搭建Faiss1.1安装依赖包首先,需要安装Faiss及其依赖包。可以使用如下命令:#如果使用......
  • (2-2-2)LiDAR激光雷达传感器感知:点云处理(2)法向量估计(Normal Estimation)+曲面重建(Surface
    2.2.4 法向量估计(NormalEstimation)算法法向量估计的目的是计算每个点的法向量,用于后续任务如曲面重建和特征提取。常用的法向量估计(NormalEstimation)算法如下所示。1.最小二乘法(LeastSquares)算法最小二乘法(LeastSquares)算法通过最小化点云到法向量的误差来估计法向......
  • aNN 与 kNN:了解它们在向量搜索中的区别和作用
    作者:来自Elastic ElasticPlatformTeam在当今的数字时代,数据呈指数级增长,且日益复杂,高效搜索和分析这一浩瀚信息海洋的能力从未如此重要。但同时也从未如此具有挑战性。这就像大海捞针,但挑战在于针的形状不断变化。这就是向量搜索作为游戏规则改变者出现的地方,它改变了我......
  • 回归预测|基于北方苍鹰优化支持向量机的数据回归预测Matlab程序NGO-SVM 多特征输入单
    回归预测|基于北方苍鹰优化支持向量机的数据回归预测Matlab程序NGO-SVM多特征输入单输出高引用先用先创新文章目录前言回归预测|基于北方苍鹰优化支持向量机的数据回归预测Matlab程序NGO-SVM多特征输入单输出高引用先用先创新一、NGO-SVM模型1.北方苍鹰优化算......
  • 不同矩阵变换的特征值和特征向量对比,简洁明了的大表格!
    为了方便自己,也为了方便大家总结如图,毫无废话,原矩阵为A矩阵特征值特征向量----如有错误还请告知,觉得很对欢迎点赞!......