• 2024-07-02AI模型大宗师Transformer的Encoder魔法棒
       在AI大模型数字王国里,有一位名叫Transformer的魔法大宗师。他有一个神奇的百宝箱,里面有很多魔法工具,其中有个工具叫Encoder,这个工具拥有一种神奇的力量,可以将复杂的输入信息进行编码,提取出关键的特征和依赖关系。   让我们来一起把这个工具掏出来细看一下,看看
  • 2024-04-16《线性代数的本质》(06-附注2-07)
    06-逆矩阵、列空间、秩与零空间线性方程组:A\(\vec{x}\)=\(\vec{v}\)线性代数的一个作用:帮助我们处理线性方程组。形式:矩阵与向量的乘法。几何意义:寻找一个向量\(\vec{x}\),这个向量在特定的线性变换之后与目标向量\(\vec{v}\)重合。行列式不等于0:有且仅有一个向量再变
  • 2024-04-02【系统结构】向量A和B长度为8,进行点积运算A·B
    向量A和B长度为8,进行点积运算A·B,计算(1)(2)两种结构处理完成全部结果的最少时钟拍数。设处理机中每个部件输出的结果均可直接送到任何部件的输入端或存人缓冲器中,其间的传输正时不计,指令和令源操作数均能连续提供。(1)处理机有一个乘一加双功能静态流水线,乘、加均由5个流水段构成
  • 2024-03-06线性代数——平面向量 学习笔记
    线性代数——平面向量学习笔记首发于洛谷。定义及用语说明无特殊说明,下文的向量均指自由向量且是平面向量。向量,英文名为vector,目前没有准确而统一的中文翻译。在物理学科,一般翻译成「矢量」,且与「标量」一词相对。在数学学科,一般直接翻译成「向量」。对于向量的乘法:
  • 2024-02-02程序员数学阅读笔记
    引入抽象是有原因的:它可以帮助你组织和交流更宏大、更强有力的思想。数学在许多软件工程领域都有着趣味盎然和收益颇丰的应用。数学可以量化随时间变化的数据的趋势,如预测股票价格的走势。数字元组(称为向量)代表多维数据。具体来说,三维向量是三元数对,可以表示空间中的点。可以通
  • 2023-10-15常用的相似度度量总结:余弦相似度,点积,L1,L2
    前言 相似性度量在机器学习中起着至关重要的作用。这些度量以数学方式量化对象、数据点或向量之间的相似性。理解向量空间中的相似性概念并采用适当的度量是解决广泛的现实世界问题的基础。本文将介绍几种常用的用来计算两个向量在嵌入空间中的接近程度的相似性度量。本文转载自
  • 2023-09-02为什么点积可以计算相似性
    点积又称内积,就是一种向量操作,把两个向量的元素对应相乘,然后把结果相加即可。它可以计算相似性,还要从向量空间说起。向量就是一列数字,这一列有多少元素,就看成是多少维度的空间。如向量aarray([[1],[2],[3],[4],[5],[6]])那么我就可
  • 2023-07-25卖萌屋算法工程师思维导图part3—深度学习篇
    卖萌屋的妹子们(划掉)作者团整理的算法工程师思维导图,求职/自我提升/查漏补缺神器。该手册一共分为数据结构与算法、数学基础、统计机器学习和深度学习四个部分。下面是第三部分深度学习的内容~公众号后台回复【思维导图】获取完整手册(Xmind脑图源文件,学习起来更方便(ง•_•)ง编码
  • 2023-07-03 线性代数本质理解回顾(六)点积与对偶性
     这个计算有一个完美的几何解释。   当两个向量的大致方向相同,则为正。若垂直则为0. 若相反,则为负。点积与顺序无关让我感到惊讶。直观上说说为什么无关,如果有对称性,则可以利用对称性。     为什么点积是对应坐标相乘并将结果相加?  在继续深入之
  • 2023-06-18查询和键之间的相似度
    查询和键的联合嵌入空间查询和键的联合嵌入空间是指在注意力机制中,将查询(Q)和键(K)映射到相同的嵌入空间,以便计算它们之间的相似度或相关性。在注意力机制中,我们使用查询向量(Q)来表示我们要关注的内容或信息,而键向量(K)表示我们要对其进行关注的内容或信息。通过将查询和键映射到相同的
  • 2023-06-18点积注意力、加性注意力和缩放点积注意力
    什么是点积注意力、加性注意力和缩放点积注意力?点积注意力(DotProductAttention):点积注意力是一种注意力机制,用于计算输入向量之间的相似度。它通过计算两个向量的点积来度量它们的相似程度,然后对结果进行归一化处理得到注意力权重。点积注意力的计算公式如下:注意力权重=softma
  • 2023-06-11点积、内积、外积、叉积、张量积——概念区分
    找张量积概念的时候,被各种野路子博客引入的各种“积”搞混了,下面仅以Wikipedia为标准记录各种积的概念。点积(Dotproduct)https://en.wikipedia.org/wiki/Dot_product在数学中,点积(Dotproduct)或标量积(scalarproduct)是一种代数运算,它取两个相等长度的数字序列(通常是坐标
  • 2023-05-17免注意力Transformer (AFT):使用逐元素乘积而不是点积
    注意力机制作为现代深度学习模型的基石,能够毫不费力地对长期依赖进行建模,并关注输入序列中的相关信息。然而,需要点积自注意力-广泛使用在Transformer架构中的一个关键组件-已被证明在序列长度方面具有二次空间复杂度,因此不适用于处理长输入。在本文中,我们介绍了AttentionFree
  • 2023-04-26向量点积dot,叉积cross product
    点积概括地说,向量的内积(点乘/数量积)。对两个向量执行点乘运算,就是对这两个向量对应位一一相乘之后求和的操作,点乘的结果是一个标量(数量而不是向量)点积(点乘)的几何意义包括:表征或计算两个向量之间的夹角b向量在a向量方向上的投影叉积两个向量的外积,又叫叉乘、叉积向量积,其运
  • 2023-04-25Attention Is All You Need—transformer详解
    AttentionIsAllYouNeed论文transformer代码以下大部分是根据论文理解进行的总结和概括,如有疑问,欢迎交流~transformer仅仅使用注意力机制,没有使用任何的卷积或者RNN结构。传统RNN结构的当前隐层状态\(h_t\)需要当前时刻的输入以及上一时刻的隐状态输入\(h_{t-1}\),受到这一
  • 2023-03-16点积、内积、外积、叉积、张量积——概念区分
    找张量积概念的时候,被各种野路子博客引入的各种“积”搞混了,下面仅以Wikipedia为标准记录各种积的概念。点积(Dotproduct)https://en.wikipedia.org/wiki/Dot_pro
  • 2023-01-08矩阵点积
    -以下是用js做了一个矩阵点积的计算:矩阵点积:计算行和列之间的乘积之和,也叫矩阵乘积 第一个矩阵的列数必须等于第二个矩阵的行数。如果第一个矩阵的维度是(m×n),则需要
  • 2022-12-02真实感渲染:三角函数、向量和矩阵
    大家好~本课程为“真实感渲染”的线上课程,从0开始,介绍相关的图形学算法和数学基础,给出详细的数学推导、伪代码和实现代码,最终带领大家开发出基于物理的渲染器线上课程资料
  • 2022-11-30计算几何
    非常幼稚和不严谨的学习笔记。前置板板点积点积比较简单,即\(a\cdotb=|a||b|\cos\theta\),计算方式是\(\text{dot}=x_1x_2+y_1y_2\)。然后常用的是用点积除以其中一个
  • 2022-11-17numpy
    numpy中axis=1表示列,axis=0表示行线性代数库linalgdot数组的点积vdot向量的点积(是一个数)inner数组内积(类似交叉相乘)matmul
  • 2022-10-15转:点积和叉积的数学公式
    线性代数笔记3——向量2(点积) 线性代数笔记4——向量3(叉积) 
  • 2022-08-26经典注意力机制
    1.用机器翻译任务带你看Attention机制的计算单独地去讲Attention机制会有些抽象,也有些枯燥,所以我们不妨以机器翻译任务为例,通过讲解Attention机制在机器翻译任务中的应