- 2024-10-23点乘
点积点积等于它们模长与夹角余弦相乘。单位向量的点积等于夹角余弦。性质交换律结合律分配律点积在笛卡尔坐标系中的计算分量相乘,再相加。点积在图形学的应用求两向量的夹角(光源与表面(法线)夹角的余弦)。求一个向量在另一个向量上的投影。点积的投影
- 2024-10-23向量
在数学中,向量(也称为矢量),是指具有大小和方向的量;书写向量时,水平书写的向量叫做行向量向量的大小就是向量的长度,也叫做模。向量的方向描述了空间中向量的指向;向量中的数表达了向量在每个维度上的有向位移。特殊向量零向量:大小为0,没有方向的向量,并且它不可以被归一化。单位向
- 2024-10-15Transformer 的缩放因子为什么需要开平方根
目录一、防止过大的注意力分数导致softmax函数饱和二、维度校正三、保持方差稳定在Transformer模型中,缩放因子(scalingfactor)特别设计用于调整注意力分数(attentionscores),它通常是键向量维度的平方根。这一做法主要是出于以下几个原因:一、防止过大的注意力分数导致
- 2024-09-05逐行讲解Transformer的代码实现和原理讲解:多头掩码注意力机制
视频详细讲解(一行一行代码讲解实现过程):逐行讲解Transformer的代码实现和原理讲解:多头掩码注意力机制(1)_哔哩哔哩_bilibili1多头掩码注意力机制总体流程【总体流程图说明】【12个块】【多头掩码注意力机制公式】【计算公式对应的步骤】2向量相似度计算2.1点积向
- 2024-09-01点积
公式\(a\cdotb=\sum_{i=1}^na_ib_i\)\(a\cdotb=\lVerta\rVert\lVertb\rVert\cos\theta\),若a,b是单位向量则\(a\cdotb=\cos\theta\)\(\theta=\arccos\left(\frac{a\cdotb}{\lVerta\rVert\lVertb\rVert}\right)\),若a,b是单位向量则\(\theta=\ar
- 2024-08-29各种注意力评分函数的实现
预备知识本文基于MXNet进行实现,需要对于注意力机制有一定初步了解。也需要对Python有足够了解。另外这里稍加说明,在注意力机制中,本质上是“注意”的位置,即加权计算后进行Softmax回归的结果。在Nadaraya-Watson核回归中,首先具有一个键值对(key-value),输入称为一个查询(query),对于
- 2024-08-06多头自注意力机制计算举例
多头自注意力机制计算示例多头自注意力机制计算示例1.输入序列和权重矩阵假设输入序列X如下:X[1,0,1,0][0,1,0,1][1,1,1,1]我们有两个头,分别对应的权重矩阵如下:头1WQ(1)WK(1)WV(1)[1,0][1,0][1,0][0,1][0,1][0,1][1,0][1,
- 2024-07-18矩阵向量点积、Batch(批)理解、one-hot编码
矩阵向量点积output=relu(dot(W,input)+b)input的每个元素为三维的特征向量的特征,W矩阵:行:存储节点权重数组列数表示节点数量所以result[1]和result[0]运算互不干扰,能够并行加速上述数学角度运算代码如下:defnaive_matrix_vector_dot(x,y):assertlen(x.sha
- 2024-07-02AI模型大宗师Transformer的Encoder魔法棒
在AI大模型数字王国里,有一位名叫Transformer的魔法大宗师。他有一个神奇的百宝箱,里面有很多魔法工具,其中有个工具叫Encoder,这个工具拥有一种神奇的力量,可以将复杂的输入信息进行编码,提取出关键的特征和依赖关系。 让我们来一起把这个工具掏出来细看一下,看看
- 2024-04-16《线性代数的本质》(06-附注2-07)
06-逆矩阵、列空间、秩与零空间线性方程组:A\(\vec{x}\)=\(\vec{v}\)线性代数的一个作用:帮助我们处理线性方程组。形式:矩阵与向量的乘法。几何意义:寻找一个向量\(\vec{x}\),这个向量在特定的线性变换之后与目标向量\(\vec{v}\)重合。行列式不等于0:有且仅有一个向量再变
- 2024-04-02【系统结构】向量A和B长度为8,进行点积运算A·B
向量A和B长度为8,进行点积运算A·B,计算(1)(2)两种结构处理完成全部结果的最少时钟拍数。设处理机中每个部件输出的结果均可直接送到任何部件的输入端或存人缓冲器中,其间的传输正时不计,指令和令源操作数均能连续提供。(1)处理机有一个乘一加双功能静态流水线,乘、加均由5个流水段构成
- 2024-03-06线性代数——平面向量 学习笔记
线性代数——平面向量学习笔记首发于洛谷。定义及用语说明无特殊说明,下文的向量均指自由向量且是平面向量。向量,英文名为vector,目前没有准确而统一的中文翻译。在物理学科,一般翻译成「矢量」,且与「标量」一词相对。在数学学科,一般直接翻译成「向量」。对于向量的乘法:
- 2024-02-02程序员数学阅读笔记
引入抽象是有原因的:它可以帮助你组织和交流更宏大、更强有力的思想。数学在许多软件工程领域都有着趣味盎然和收益颇丰的应用。数学可以量化随时间变化的数据的趋势,如预测股票价格的走势。数字元组(称为向量)代表多维数据。具体来说,三维向量是三元数对,可以表示空间中的点。可以通
- 2023-10-15常用的相似度度量总结:余弦相似度,点积,L1,L2
前言 相似性度量在机器学习中起着至关重要的作用。这些度量以数学方式量化对象、数据点或向量之间的相似性。理解向量空间中的相似性概念并采用适当的度量是解决广泛的现实世界问题的基础。本文将介绍几种常用的用来计算两个向量在嵌入空间中的接近程度的相似性度量。本文转载自
- 2023-09-02为什么点积可以计算相似性
点积又称内积,就是一种向量操作,把两个向量的元素对应相乘,然后把结果相加即可。它可以计算相似性,还要从向量空间说起。向量就是一列数字,这一列有多少元素,就看成是多少维度的空间。如向量aarray([[1],[2],[3],[4],[5],[6]])那么我就可
- 2023-07-25卖萌屋算法工程师思维导图part3—深度学习篇
卖萌屋的妹子们(划掉)作者团整理的算法工程师思维导图,求职/自我提升/查漏补缺神器。该手册一共分为数据结构与算法、数学基础、统计机器学习和深度学习四个部分。下面是第三部分深度学习的内容~公众号后台回复【思维导图】获取完整手册(Xmind脑图源文件,学习起来更方便(ง•_•)ง编码
- 2023-07-03 线性代数本质理解回顾(六)点积与对偶性
这个计算有一个完美的几何解释。 当两个向量的大致方向相同,则为正。若垂直则为0. 若相反,则为负。点积与顺序无关让我感到惊讶。直观上说说为什么无关,如果有对称性,则可以利用对称性。 为什么点积是对应坐标相乘并将结果相加? 在继续深入之
- 2023-06-18查询和键之间的相似度
查询和键的联合嵌入空间查询和键的联合嵌入空间是指在注意力机制中,将查询(Q)和键(K)映射到相同的嵌入空间,以便计算它们之间的相似度或相关性。在注意力机制中,我们使用查询向量(Q)来表示我们要关注的内容或信息,而键向量(K)表示我们要对其进行关注的内容或信息。通过将查询和键映射到相同的
- 2023-06-18点积注意力、加性注意力和缩放点积注意力
什么是点积注意力、加性注意力和缩放点积注意力?点积注意力(DotProductAttention):点积注意力是一种注意力机制,用于计算输入向量之间的相似度。它通过计算两个向量的点积来度量它们的相似程度,然后对结果进行归一化处理得到注意力权重。点积注意力的计算公式如下:注意力权重=softma
- 2023-06-11点积、内积、外积、叉积、张量积——概念区分
找张量积概念的时候,被各种野路子博客引入的各种“积”搞混了,下面仅以Wikipedia为标准记录各种积的概念。点积(Dotproduct)https://en.wikipedia.org/wiki/Dot_product在数学中,点积(Dotproduct)或标量积(scalarproduct)是一种代数运算,它取两个相等长度的数字序列(通常是坐标
- 2023-05-17免注意力Transformer (AFT):使用逐元素乘积而不是点积
注意力机制作为现代深度学习模型的基石,能够毫不费力地对长期依赖进行建模,并关注输入序列中的相关信息。然而,需要点积自注意力-广泛使用在Transformer架构中的一个关键组件-已被证明在序列长度方面具有二次空间复杂度,因此不适用于处理长输入。在本文中,我们介绍了AttentionFree
- 2023-04-26向量点积dot,叉积cross product
点积概括地说,向量的内积(点乘/数量积)。对两个向量执行点乘运算,就是对这两个向量对应位一一相乘之后求和的操作,点乘的结果是一个标量(数量而不是向量)点积(点乘)的几何意义包括:表征或计算两个向量之间的夹角b向量在a向量方向上的投影叉积两个向量的外积,又叫叉乘、叉积向量积,其运
- 2023-04-25Attention Is All You Need—transformer详解
AttentionIsAllYouNeed论文transformer代码以下大部分是根据论文理解进行的总结和概括,如有疑问,欢迎交流~transformer仅仅使用注意力机制,没有使用任何的卷积或者RNN结构。传统RNN结构的当前隐层状态\(h_t\)需要当前时刻的输入以及上一时刻的隐状态输入\(h_{t-1}\),受到这一
- 2023-03-16点积、内积、外积、叉积、张量积——概念区分
找张量积概念的时候,被各种野路子博客引入的各种“积”搞混了,下面仅以Wikipedia为标准记录各种积的概念。点积(Dotproduct)https://en.wikipedia.org/wiki/Dot_pro
- 2023-01-08矩阵点积
-以下是用js做了一个矩阵点积的计算:矩阵点积:计算行和列之间的乘积之和,也叫矩阵乘积 第一个矩阵的列数必须等于第二个矩阵的行数。如果第一个矩阵的维度是(m×n),则需要