本节课程地址:67 自注意力【动手学深度学习v2】_哔哩哔哩_bilibili
本节教材地址:10.6. 自注意力和位置编码 — 动手学深度学习 2.0.0 documentation
本节开源代码:...>d2l-zh>pytorch>chapter_multilayer-perceptrons>self-attention-and-positional-encoding.ipynb
自注意力和位置编码
在深度学习中,经常使用卷积神经网络(CNN)或循环神经网络(RNN)对序列进行编码。 想象一下,有了注意力机制之后,我们将词元序列输入注意力池化中, 以便同一组词元同时充当查询、键和值。 具体来说,每个查询都会关注所有的键-值对并生成一个注意力输出。 由于查询、键和值来自同一组输入,因此被称为 自注意力(self-attention) (href="https://zh.d2l.ai/chapter_references/zreferences.html#id94">Linet al., 2017,="https://zh.d2l.ai/chapter_references/zreferences.html#id174">Vaswaniet al., 2017), 也被称为内部注意力(intra-attention) (ef="https://zh.d2l.ai/chapter_references/zreferences.html#id22">Chenget al., 2016,f="https://zh.d2l.ai/chapter_references/zreferences.html#id119">Parikhet al., 2016,f="https://zh.d2l.ai/chapter_references/zreferences.html#id121">Pauluset al., 2017)。 本节将使用自注意力进行序列编码,以及如何使用序列的顺序作为补充信息。
import math
import torch
from torch import nn
from d2l import torch as d2l
[自注意力]
给定一个由词元组成的输入序列 , 其中任意 ( )。 该序列的自注意力输出为一个长度相同的序列 ,其中:
根据 (10.2.4)中定义的注意力汇聚函数 。 下面的代码片段是基于多头注意力对一个张量完成自注意力的计算, 张量的形状为(批量大小,时间步的数目或词元序列的长度, )。 输出与输入的张量形状相同。
num_hiddens, num_heads = 100, 5
attention = d2l.MultiHeadAttention(num_hiddens, num_hiddens, num_hiddens,
num_hiddens, num_heads, 0.5)
attention.eval()
输出结果:
MultiHeadAttention(
(attention): DotProductAttention(
(dropout): Dropout(p=0.5, inplace=False)
)
(W_q): Linear(in_features=100, out_features=100, bias=False)
(W_k): Linear(in_features=100, out_features=100, bias=False)
(W_v): Linear(in_features=100, out_features=100, bias=False)
(W_o): Linear(in_features=100, out_features=100, bias=False)
)
batch_size, num_queries, valid_lens = 2, 4, torch.tensor([3, 2])
X = torch.ones((batch_size, num_queries, num_hiddens))
attention(X, X, X, valid_lens).shape
输出结果:
torch.Size([2, 4, 100])
比较卷积神经网络、循环神经网络和自注意力
接下来比较下面几个架构,目标都是将由 n 个词元组成的序列映射到另一个长度相等的序列,其中的每个输入词元或输出词元都由 d 维向量表示。具体来说,将比较的是卷积神经网络、循环神经网络和自注意力这几个架构的计算复杂性、顺序操作和最大路径长度。请注意,顺序操作会妨碍并行计算,而任意的序列位置组合之间的路径越短,则能更轻松地学习序列中的远距离依赖关系 (Hochreiteret al., 2001)。
考虑一个卷积核大小为 的卷积层。 在后面的章节将提供关于使用卷积神经网络处理序列的更多详细信息。 目前只需要知道的是,由于序列长度是 ,输入和输出的通道数量都是 , 所以卷积层的计算复杂度为 。 如 图10.6.1 所示, 卷积神经网络是分层的,因此为有 个顺序操作, 最大路径长度为 。 例如, 和 处于 图10.6.1 中卷积核大小为3的双层卷积神经网络的感受野内。
当更新循环神经网络的隐状态时, 权重矩阵和 维隐状态的乘法计算复杂度为 。 由于序列长度为 ,因此循环神经网络层的计算复杂度为 。 根据 图10.6.1, 有 个顺序操作无法并行化,最大路径长度也是 。
在自注意力中,查询、键和值都是 矩阵。 考虑 (10.3.5)中缩放的”点-积“注意力, 其中 矩阵乘以 矩阵。 之后输出的 矩阵乘以 矩阵。 因此,自注意力具有 计算复杂性。 正如在 图10.6.1 中所讲, 每个词元都通过自注意力直接连接到任何其他词元。 因此,有 个顺序操作可以并行计算, 最大路径长度也是 。
总而言之,卷积神经网络和自注意力都拥有并行计算的优势, 而且自注意力的最大路径长度最短。 但是因为其计算复杂度是关于序列长度的二次方,所以在很长的序列中计算会非常慢。
[位置编码]
重复地处理词元的, 而自注意力则因为并行计算而放弃了顺序操作。 为了使用序列的顺序信息,通过在输入表示中添加 位置编码(positional encoding)来注入绝对的或相对的位置信息。 位置编码可以通过学习得到也可以直接固定得到。 接下来描述的是基于正弦函数和余弦函数的固定位置编码 (="https://zh.d2l.ai/chapter_references/zreferences.html#id174">Vaswaniet al., 2017)。
假设输入表示 包含一个序列中 个词元的 维嵌入表示。 位置编码使用相同形状的位置嵌入矩阵 输出 , 矩阵第 行、第 列和 列上的元素为:
(10.6.2)
乍一看,这种基于三角函数的设计看起来很奇怪。 在解释这个设计之前,让我们先在下面的PositionalEncoding
类中实现它。
#@save
class PositionalEncoding(nn.Module):
"""位置编码"""
def __init__(self, num_hiddens, dropout, max_len=1000):
super(PositionalEncoding, self).__init__()
self.dropout = nn.Dropout(dropout)
# 创建一个足够长的P,形状为(batch_size, n, d)
# max_len是序列的最大长度, num_hiddens是每个位置的编码维度
self.P = torch.zeros((1, max_len, num_hiddens))
X = torch.arange(max_len, dtype=torch.float32).reshape(
-1, 1) / torch.pow(10000, torch.arange(
0, num_hiddens, 2, dtype=torch.float32) / num_hiddens)
self.P[:, :, 0::2] = torch.sin(X)
self.P[:, :, 1::2] = torch.cos(X)
def forward(self, X):
# self.P[:, :X.shape[1], :] 选择与输入序列长度相同的编码
X = X + self.P[:, :X.shape[1], :].to(X.device)
# dropout防止模型对P过于敏感
return self.dropout(X)
在位置嵌入矩阵 中, [行代表词元在序列中的位置,列代表位置编码的不同维度]。 从下面的例子中可以看到位置嵌入矩阵的第6列和第7列的频率高于第8列和第9列。 第6列和第7列之间的偏移量(第8列和第9列相同)是由于正弦函数和余弦函数的交替。
encoding_dim, num_steps = 32, 60
pos_encoding = PositionalEncoding(encoding_dim, 0)
pos_encoding.eval()
X = pos_encoding(torch.zeros((1, num_steps, encoding_dim)))
P = pos_encoding.P[:, :X.shape[1], :]
d2l.plot(torch.arange(num_steps), P[0, :, 6:10].T, xlabel='Row (position)',
figsize=(6, 2.5), legend=["Col %d" % d for d in torch.arange(6, 10)])
绝对位置信息
为了明白沿着编码维度单调降低的频率与绝对位置信息的关系, 让我们打印出 的[二进制表示]形式。 正如所看到的,每个数字、每两个数字和每四个数字上的比特值 在第一个最低位、第二个最低位和第三个最低位上分别交替。
for i in range(8):
print(f'{i}的二进制是:{i:>03b}')
输出结果:
0的二进制是:000
1的二进制是:001
2的二进制是:010
3的二进制是:011
4的二进制是:100
5的二进制是:101
6的二进制是:110
7的二进制是:111
在二进制表示中,较高比特位的交替频率低于较低比特位, 与下面的热图所示相似,只是位置编码通过使用三角函数[在编码维度上降低频率]。 由于输出是浮点数,因此此类连续表示比二进制表示法更节省空间。
P = P[0, :, :].unsqueeze(0).unsqueeze(0)
d2l.show_heatmaps(P, xlabel='Column (encoding dimension)',
ylabel='Row (position)', figsize=(3.5, 4), cmap='Blues')
相对位置信息
除了捕获绝对位置信息之外,上述的位置编码还允许模型学习得到输入序列中相对位置信息。 这是因为对于任何确定的位置偏移 ,位置 处 的位置编码可以线性投影位置 处的位置编码来表示。
这种投影的数学解释是,令 , 对于任何确定的位置偏移 , (10.6.2)中的任何一对 都可以线性投影到 :
投影矩阵不依赖于任何位置的索引 。
小结
- 在自注意力中,查询、键和值都来自同一组输入。
- 卷积神经网络和自注意力都拥有并行计算的优势,而且自注意力的最大路径长度最短。但是因为其计算复杂度是关于序列长度的二次方,所以在很长的序列中计算会非常慢。
- 为了使用序列的顺序信息,可以通过在输入表示中添加位置编码,来注入绝对的或相对的位置信息。
练习
- 假设设计一个深度架构,通过堆叠基于位置编码的自注意力层来表示序列。可能会存在什么问题?
解:
1)由于自注意力的计算复杂度大,因此这种方式可能会导致模型的计算复杂度过高,参数数量过多且计算资源需求过大。 2)尽管自注意力机制可以捕捉长距离依赖关系,但在非常深的网络中,学习这些依赖关系可能会变得更加困难,因为信息需要通过更多的层来传播。 3)固定的位置编码可能不足以捕捉所有类型的序列结构,特别是当序列具有复杂的结构或模式时。 4)位置编码通常预定义了最大序列长度(比如教材中的1000),这限制了模型处理更长序列的能力。 - 请设计一种可学习的位置编码方法。
解:代码如下:
class LearnablePositionalEncoding(nn.Module):
"""可学习的位置编码"""
def __init__(self, num_hiddens, dropout, max_len=1000):
super(LearnablePositionalEncoding, self).__init__()
self.dropout = nn.Dropout(dropout)
self.P = nn.Parameter(torch.randn((1, max_len, num_hiddens)))
def forward(self, X):
X = X + self.P[:, :X.shape[1], :].to(X.device)
return self.dropout(X)
encoding_dim, num_steps = 32, 60
pos_encoding = LearnablePositionalEncoding(encoding_dim, 0)
pos_encoding.eval()
X = pos_encoding(torch.randn((1, num_steps, encoding_dim)))
P = pos_encoding.P[:, :X.shape[1], :].detach()
d2l.plot(torch.arange(num_steps), P[0, :, 6:10].T, xlabel='Row (position)',
figsize=(6, 2.5), legend=["Col %d" % d for d in torch.arange(6, 10)])
标签:编码,10.6,self,torch,PyTorch,num,序列,注意力
From: https://blog.csdn.net/scdifsn/article/details/144215743