首页 > 其他分享 >Self-Attention公式解释

Self-Attention公式解释

时间:2023-11-10 22:24:12浏览次数:30  
标签:Transformer 权重 模型 处理 公式 Self Attention 矩阵 注意力

Transformer的注意力机制被广泛应用于自然语言处理(NLP)领域中,它主要用于解决序列到序列的模型中长距离依赖问题。

长距离依赖问题

举个例子,考虑这个句子:

“The cat, which was very hungry, finally found its food in the kitchen after searching for hours.”
这只猫非常饿,经过几个小时的寻找,终于在厨房里找到了食物。

在这个句子中,要理解“its”指的是“cat”,你需要在文本中跨越很长的距离。

在传统的RNN中,由于每次只处理一个元素,且下一个元素的处理依赖于前一个元素的输出,信息很难在长距离内有效传递,这就是所谓的长距离依赖问题

注意力机制的解决方案

注意力机制通过为每个输入元素分配一个权重来解决这个问题。这些权重决定了在生成输出时应该“注意”序列中的哪些部分。

以机器翻译为例,当模型试图翻译一个单词时,它会“查看”输入序列中的所有单词,并根据它们与当前要翻译的单词的相关性来赋予不同的权重。

想象一下,你在一个非常嘈杂的聚会中,你试图专注于一个朋友的谈话。尽管周围有很多声音,但你可以“调整”你的注意力,集中在你朋友的声音上,同时忽略其他的噪音。这个过程,就有点像注意力机制的工作原理。

Self-Attention 公式解释

Self-Attention 的公式如下:

Attention(Q,K,V)=softmax\left ( \frac{QK^T}{\sqrt{d_k} } \right ) V

我们以上面的嘈杂聚会中要专注于一个朋友的谈话场景来解释:

  • 查询 (Query) 代表当前的焦点或需要翻译的部分。这就像是你想要听的你朋友的声音。

  • 键 (K) 和 值 (V) 代表输入序列。其中,键表示要检索的信息,值表示一旦检索到对应键,应该返回的信息。

    • 键(Key) - 这些是周围所有的声音,包括你朋友的声音和其他人的声音。
    • 值(Value) - 如果你朋友的声音(键)是你想要的,那么他们的谈话内容(值)就是你想要专注的信息。
  • QK^T的计算是在寻找查询和键之间的匹配程度,即找出输入序列中哪些部分与当前关注点最相关。

  • softmax\left ( \frac{QK^T}{\sqrt{d_k} } \right ) 这一部分将这些匹配分数转换成概率形式,这些概率(权重)决定了每个输入元素的重要性。

    • d_k 是键的维度,用来缩放点积,避免得到太大的数值。
    • softmax函数用来将分数转化为概率,确保所有的关注度分数加起来等于1。
  • 最后,这些权重被用来加权值 (V),得到加权求和的输出,这个输出就是模型对当前焦点或查询的最终响应。

通过这种方式,Self-Attention 机制能够捕捉序列中的长距离依赖关系,并为每个位置产生一个新的表示,这个表示是所有位置的加权和,权重由元素之间的相似度决定。

为什么要用QKV三个?而不是一个?

Transformer中使用三个不同的Q(查询)、K(键)、V(值)矩阵,可以想象成我们在处理信息时,不同的角度和目的会使用不同的工具或方法。

比如说,你在一个图书馆里寻找信息:

查询(Q):

这就像你的问题清单,比如你想了解有关历史的信息。你的问题清单会指导你去哪里查找,找什么样的书。

键(K):

这对应于每本书的目录或索引,你会用它来判断哪本书可能包含你需要的信息。

值(V):

这就是书中的实际内容。一旦你确定了哪些书的目录与你的问题清单匹配,你就会去阅读那些书的具体内容。


图:在图书馆寻找信息

如果Transformer只用输入x自己,而不去创建这些专门的Q、K、V矩阵,那就相当于你只用一种方法去处理所有类型的信息,不管是提出问题、搜索索引还是阅读内容。这样做不仅效率低,而且很难深入挖掘更复杂或更细微的信息。

使用不同的Q、K、V就像是给Transformer装备了不同的工具,使其能够在处理信息时更加精准和高效。这样可以增强网络处理不同类型信息的能力,就像给图书馆的访问者提供了详细的问题列表、高效的索引系统和丰富的书籍内容一样。

这样的设计提高了Transformer的表达能力,让它可以更好地学习和更新参数,从而更好地处理复杂的任务,如理解和生成语言。

公式中符号 T 的作用?

在注意力机制的公式Attention(Q,K,V)=softmax\left ( \frac{QK^T}{\sqrt{d_k} } \right ) V中,符号 T 表示矩阵的转置(Transpose)。

矩阵转置是一种基本的数学操作,它将矩阵的行和列交换。如果你有一个矩阵,其行和列分别是
mn,那么这个矩阵的转置就会有 n 行和 m 列。

在注意力机制的上下文中,Q(查询)和 K(键)是矩阵。当我们计算 QK^T (即查询矩阵和键矩阵的转置的乘积)时,我们实际上是在计算查询和键之间的相似度。这个计算结果将用于确定模型应该将多少注意力放在不同部分的数据上。

例如,如果 Q 是一个 1×d 的矩阵,
K 是一个 n×d 的矩阵(其中 d 是特征维度),那么 K^T就是一个 d×n 的矩阵。因此,当你计算 QK^T时,你会得到一个 1×n 的矩阵,表示 QK 中每个元素的相似度。

并行化是如何实现的?

在传统的循环神经网络(RNN)中,数据需要按序列顺序逐步处理。想象一下,你正在阅读一本书,你不能同时阅读所有的页面,而是要一页一页地去读,这就是RNN处理数据的方式。这种顺序处理限制了计算的并行化,因为在你没有读完第一页之前,你是无法开始读第二页的。

然而,在Transformer模型中,利用注意力机制,你可以一眼看到整本书的所有页面,并立刻找到你感兴趣的信息。在模型里,这就意味着它可以同时处理整个句子中的所有单词,而不需要像RNN那样一步步来。这是因为注意力机制不依赖于序列之前的计算结果来进行当前的计算,每个词的处理只依赖于当前的输入,不需要等待其他词的处理结果。

注意力机制公式
Attention(Q,K,V)=softmax\left ( \frac{QK^T}{\sqrt{d_k} } \right ) V

矩阵乘法

QK^T表示查询 Q 和键 K 的矩阵乘法。这个操作是可以完全并行的,因为你可以同时计算 Q 中每一行与 K^T 中每一列的点积。在实际的计算中,这通常是通过高效的线性代数库来实现的,这些库能够利用现代CPU和GPU上的并行计算能力。

缩放和Softmax:

缩放操作 \frac{1}{\sqrt{d_k} }和应用 softmax函数也可以并行进行。这是因为这些操作都是逐元素进行的,即可以独立地对每个元素应用相同的操作,而不需要等待其他元素的计算结果。

应用于 V
最后的矩阵乘法 softmax\left ( \frac{QK^T}{\sqrt{d_k} } \right ) V 同样是可以并行的。这里,计算得到的权重矩阵(即 softmax 的结果)被用来加权
V,这个步骤也是可以并行完成的。

因此,模型可以在处理每个词时不受前一个词处理完毕的约束,这使得所有词的处理可以并行进行。这样的并行化大大加快了处理速度。

动态权重分配

我们用一个简单的类比来解释动态权重分配:

想象一下你在准备一道沙拉,而且你对每种配料的喜好程度不同。你可能非常喜欢番茄,所以你会往沙拉里放很多番茄;但如果你不太喜欢洋葱,你可能就只放几片。在这个例子中,你对每种配料的“注意力”是不同的,所以你按照自己的喜好给每种配料分配了不同的“权重”(即番茄的比例高,洋葱的比例低)。

现在,把这个概念应用到Transformer模型中的动态权重分配上。在处理文本时,模型面对的是一系列的词语(就像沙拉中的配料)。模型需要决定在理解某个词(比如“吃”)时,应该给其他词(如“苹果”、“香蕉”、“巧克力”)多少“注意力”。如果当前的任务是理解食物相关的内容,模型可能会给“苹果”和“香蕉”更多的注意力,而对“巧克力”注意力较少,因为在这个上下文中它们与“吃”这个动作更相关。

动态权重分配在这个公式中体现于:

  • 每个查询对应的权重分布是基于查询和键之间的实时关系计算出来的。
  • 这些权重随后用于确定在产生响应时应该给予值 V 中的每个部分多少关注。

在Transformer模型中,这种“注意力”的分配是通过计算得到的,模型会学习在不同的上下文中如何分配注意力,这就是为什么我们说权重是“动态”的。这使得模型在处理每个词时都能考虑到它与其他词的关系,从而更好地理解整个句子的意思。

上下文捕获能力

想象一下你和朋友们在聊天。如果有人说“昨天的足球比赛真激动人心”,即使你没看那场比赛,你也会知道他们讨论的是足球,因为你能根据“足球比赛”这个词组理解上下文。

现在把这个情景应用到Transformer模型上。在模型中,每个单词都像一个人,它想要理解它所在的“聊天”(即句子)。通过注意力机制,每个单词都可以“听到”句子中其他单词的“声音”并了解每个词的重要性。例如,如果句子是“我昨天晚上吃了一个苹果”,当模型看到“吃”这个词时,它会通过注意力机制更多地关注“苹果”,因为在吃的行为中,食物(苹果)是重要的。

注意力机制的公式在下面几个方面展示了这种能力:

全面考虑输入序列:在计算 QK^T 时,查询 Q(通常代表当前处理的目标部分,比如当前翻译的单词或当前生成的句子部分)与键 K 中的每个元素(代表输入序列的不同部分)进行比较。这意味着模型会考虑输入序列中的每个部分与当前处理内容的相关性。

动态权重分配:通过 softmax 函数,模型生成了一个概率分布,它表示当前查询与输入序列各部分的相关程度。这个分布是基于输入数据的实际内容动态计算的,反映了当前处理的部分与整个输入序列的关系。

加权组合:模型使用这些计算出的权重来加权值 V(与 K 相对应的输入序列的表示)。这样,模型生成的输出不仅仅是基于当前的元素,而是基于整个输入序列中所有相关元素的加权组合。

Transformer模型通过这种方式为每个词分配一个权重,这些权重反映了其他词在当前词理解上下文中的重要性。模型做这个过程不止一次,而是多次,每次都能更好地捕获句子的整体意义。这就好像你在多次聊天后越来越了解朋友们的话题。

最终,这种能力使得Transformer模型非常擅长处理比如翻译、生成文本等需要深刻理解语言上下文的任务。每个词都不是孤立的,而是在与周围词的交流中获取意义,就像人类交流一样。这种对上下文的敏感性是Transformer模型非常强大的原因之一。

总结

Transformer的注意力机制是自然语言处理领域的一项创新,解决了长距离依赖问题,即在复杂文本中理解词语间的深层关联。

这种机制通过对文本中每个词汇赋予特定权重,巧妙地突出了重要信息,从而使得模型能够更准确地捕捉到文本的整体含义。

其核心在于Self-Attention机制,运用独特的查询(Q)、键(K)、值(V)系统,实现了对文本细节的精准把握。

Transformer之所以采用Q、K、V三元组而非单一元素,是为了多维度、全方位地处理和解读信息,类似于在图书馆中利用不同的策略寻找所需信息。

此外,Transformer通过这种机制实现了数据处理的并行化,极大地提高了效率。

在动态权重分配和上下文捕捉方面,Transformer展现了前所未有的灵活性和敏感性,使其在复杂的语言理解和生成任务中表现卓越。

简而言之,Transformer的注意力机制不仅是技术上的飞跃,更是推动自然语言处理向更深层次发展的关键动力。

标签:Transformer,权重,模型,处理,公式,Self,Attention,矩阵,注意力
From: https://www.cnblogs.com/ghj1976/p/selfattention.html

相关文章

  • 离散数学 第一章 命题逻辑 1-3命题公式与翻译
    前面已经提到,不包含任何联结词的命题叫做原子命题,至少包含一个联结词的命题称作复合命题。设p和q是任意两个命题,则┓p,p∨q,(p∧q)∨(p→q),p«(q∨┓p)等都是复合命题。若p和q是命题变元,则上述各式均称作命题公式。p和q称作命题公式的分量。必须注意:命题公式是没有真假值的,仅当在一个公式中......
  • Tita |「绩效管理」定量考核指标公式设置焕新升级
    1.定量考核指标公式设置焕新升级,同时支持企业指标库设置公式Tita-OKR和新绩效一体化管理平台支持设置更多场景计算公式,详细设置请参考此文档;企业指标库2.在允许员工添加指标的场景下,可限制考核指标数量或者权重详细设置请参考此文档;3.发起考核时,支持按更多人员信息......
  • 房贷等额本息计算公式
    等额本息计算公式:(贷款本金*(年利率/12)*((1+(年利率/12)))^(还款年数*12))/((1+(年利率/12))^(还款年数*12)-1)直接复制红色文字到excel中即可自动计算1、安居客计算的2、自己excel计算的计算出来一模一样直接取整即可 ......
  • [论文阅读] [SAGAN] Self-Attention Generative Adversarial Networks
    Self-AttentionGenerativeAdversarialNetworks(mlr.press)ZhangH,GoodfellowI,MetaxasD,etal.Self-attentiongenerativeadversarialnetworks[C]//Internationalconferenceonmachinelearning.PMLR,2019:7354-7363.引用:4501原作者代码:brain-research/self-......
  • 经典K线组合选股公式
    一、早晨之星  基本含义:早晨之星”是股市中比较常见的底部或是阶段性底部的信号之一。在理论上,它是由三根K线组成,先是拉出一根有力度的阴线,再是一根小阳或小阴线、螺旋桨、锤头线、倒锤头线等,最后拉出一根有力度的阳线。三条K线就组成了早晨之星K线组合。早晨之星又称为希......
  • 弹性碰撞方程速解公式
    动碰静设\(m_1\)创物,\(m_2\)被创物,\(v_1\)创物初速度,\(v_1^{'}\)创物末速度,\(v_2^{'}\)被创物末速度。联立以下方程组:\[\left\{\begin{aligned}m_1v_1&=m_1v_1^{'}+m_2v_2^{'}\\\frac{1}{2}m_1v_1^2&=\frac{1}{2}m_1{v_1^{'}}^......
  • NLP中的RNN、Seq2Seq与attention注意力机制
    目录NLP自然语言处理的RNN、Seq2Seq与attention注意力机制RNN循环神经网络前馈网络入门前馈网络循环网络多层感知器架构示例循环神经网络的运作原理展开RNNseq2seq模型Attention(注意力机制)总结引用NLP自然语言处理的RNN、Seq2Seq与attention注意力机制RNN循环神经网络我们为什么......
  • PV、TPS、QPS计算公式
    1、PV(pageview),即页面浏览量,或点击量;通常是衡量一个网络新闻频道或网站甚至一条网络新闻的主要指标。    高手对pv的解释是,一个访问者在24小时(0点到24点)内到底看了你网站几个页面。这里需要强调:同一个人浏览你网站同一个页面,不重复计算pv量,点100次也算1次。说白了,pv......
  • 一元二次方程求根公式推导和运用
    一元二次方程:只有一个未知数,且未知数的最高次数为2一元二次方程的一般形式:<svgxmlns="http://www.w3.org/2000/svg"width="2.207ex"height="2.025ex"viewBox="0-883.9975.6894.9"xmlns:xlink="http://www.w3.org/1999/xlink"aria-hidden=&qu......
  • Attention机制/注意力模型/attention
    视频讲解:https://www.bilibili.com/video/BV1L4411q785?p=3&spm_id_from=pageDriverhttps://www.bilibili.com/video/BV1C7411k7Wg?from=search&seid=17393812710874939428https://www.bilibili.com/video/BV1Nt411N7HN?from=search&seid=17393812710874939428https:......