首页 > 其他分享 >深度学习面试问题总结 | Transformer面试问题总结(二)

深度学习面试问题总结 | Transformer面试问题总结(二)

时间:2024-06-10 18:59:07浏览次数:21  
标签:总结 Transformer 模型 面试 输入 Decoder 注意力 向量

本文给大家带来的百面算法工程师是深度学习Transformer的面试总结, 文章内总结了常见的提问问题,旨在为广大学子模拟出更贴合实际的面试问答场景。在这篇文章中,我们还将介绍一些常见的深度学习算法工程师面试问题,并提供参考的回答及其理论基础,以帮助求职者更好地准备面试。通过对这些问题的理解和回答,求职者可以展现出自己的深度学习算法领域的专业知识、解决问题的能力以及对实际应用场景的理解。同时,这也是为了帮助求职者更好地应对深度学习算法工程师岗位的面试挑战,提升面试的成功率和竞争力。

专栏地址:深度学习算法工程师面试问题总结【百面算法工程师】 

目录

1.简单介绍下Transformer

2.Transformer是输入是什么?

3.固定位置编码和可学习位置编码优缺点?

4.为何在获取输入词向量之后需要对矩阵乘以embedding size的开方?意义是什么?

5.大概讲一下Transformer的Encoder模块?

6.为什么transformer块使用LayerNorm而不是BatchNorm?

7.Transformer输入只能相加吗

8.Transformer为何使用多头注意力机制?

9.Transformer为什么Q和K使用不同的权重矩阵生成,为何不能使用同一个值进行自身的点乘?

10.Transformer计算attention的时候为何选择点乘而不是加法?

11.在计算attention时,为什么进行softmax之前需进行scaled(为什么除以dk的平方根)?

12.大概讲一下Transformer的Decoder模块?

13.Decoder阶段的多头自注意力和encoder的多头自注意力有什么区别?

14.Transformer的并行化体现在哪个地方?Decoder端可以做并行化吗?

15.简单描述一下Transformer中的前馈神经网络?使用了什么激活函数?相关优缺点


1.简单介绍下Transformer

答 : Transfomer是一种基于注意力机制的神经网络模型。Transformer模型由编码器和解码器两部分组成,其中编码器用于将输入序列编码成一个高维向量表示,解码器用于将这个向量表示解码成目标序列。Transformer模型最核心的部分是自注意力机制,它能够让模型在不同位置之间进行信息传递和交互,从而更好地学习输入序列中的信息。

2.Transformer是输入是什么?

答: Trransformer的输入是词向量与位置向量之和,词向量可以通过预训练的词向量模型或在模型内部学习得到。位置向量可以通过固定位置编码公式获得或者在模型内容不学习得到。

3.固定位置编码和可学习位置编码优缺点?

答: 固定位置编码优点是可以根据公式快速获得句子的位置信息,无需在训练中继续学习;其缺点是不能处理变化的序列(例如:我是大帅哥,大帅哥是我)。可学习位置编码优点是可以通过训练时动态理解句子的位置信息;缺点是需要大量的数据才能获取比较全的位置信息。

4.为何在获取输入词向量之后需要对矩阵乘以embedding size的开方?意义是什么?

答: embedding matrix的初始化方式是xavier初始化,这种方式的方差是1/embedding size,因此乘以embedding size的开方使得embedding matrix的方差是1,在这个scale下可能更有利于embedding matrix的收敛。

5.大概讲一下Transformer的Encoder模块?

答: Transformer的Encoder模块是由多个相同的层堆叠而成的,每一层由两个子层组成,分别是多头注意力机制(Multi-Head Attention)和前馈神经网络(Feed-Forward Neural Network)。在多头注意力机制中,输入序列会经过三个线性变换,分别是Q、K、V,然后进行多头注意力计算,得到每个位置对其他位置的注意力权重,再将输入序列加权求和得到多头注意力的输出。在前馈神经网络中,多头注意力的输出经过两个全连接层和ReLU激活函数的变换,得到每个位置的特征表示。接下来,这两个子层会进行残差连接(Residual Connection)和层归一化(Layer Normalization)操作,使得模型更容易训练,也能更好地捕捉输入序列之间的相关性。

6.为什么transformer块使用LayerNorm而不是BatchNorm?

答:Layer Normalization是一种能够应对不同序列长度的归一化方法,它对每个样本的特征进行归一化。Batch Normalization是一种在深度神经网络中广泛使用的归一化方法,通过对每个小批量的输入进行归一化,从而使得网络的训练更加稳定,并加速收敛速度。但是,在自然语言处理任务中,输入的序列长度通常是不同的,因此很难将不同长度的序列组成一个小批量进行归一化。

7.Transformer输入只能相加吗

答: 在Transformer模型中,输入的两个部分是词向量和位置编码,它们是分别生成的,然后进行相加得到最终的输入表示。因此,在Transformer模型中,输入确实只能相加,即词向量和位置编码不能进行其他的运算,如乘法、除法等。这是因为词向量和位置编码的维度是相同的,都是模型的隐藏层维度,而它们的作用是不同的,词向量用于表示单词的语义信息,位置编码用于表示单词在句子中的位置信息。因此,将它们相加可以将这两种信息融合到一起,从而为模型提供更加丰富的输入信息。如果进行其他的运算,如乘法、除法等,可能会破坏词向量和位置编码的信息,影响模型的性能。因此,在Transformer模型中,输入只能相加,不能进行其他的运算。

8.Transformer为何使用多头注意力机制?

答: 提高模型的表达能力,多头注意力机制可以让模型在不同的注意力空间下学习到不同的特征,从而能够更好地表达输入序列的信息。如果只使用一个注意力头,那么模型可能会在学习特定的特征时出现瓶颈,导致模型的表达能力受限。

9.Transformer为什么Q和K使用不同的权重矩阵生成,为何不能使用同一个值进行自身的点乘?

答: 在Transformer中,Q和K使用不同的权重矩阵生成是为了让模型在学习不同的特征时更加灵活。Q和K的区别在于它们所代表的信息不同,Q代表查询信息,K代表键信息,它们的作用不同,因此使用不同的权重矩阵可以让模型在不同的注意力空间下学习到更加丰富的特征,并提高模型的表现能力。如果使用同一个权重矩阵进行自身的点乘操作,可能会使模型在学习特定的特征时出现瓶颈,导致模型表达能力受限,从而影响模型的性能。

10.Transformer计算attention的时候为何选择点乘而不是加法?

答: 在Transformer中,采用点乘(dot-product)作为注意力机制的计算方式,是因为点乘计算的方式是一种更加有效的方法,可以更好地捕捉输入序列中的相关性。与加法相比,点乘可以使模型在计算注意力时更加精确,同时也具有更好的计算效率。

11.在计算attention时,为什么进行softmax之前需进行scaled(为什么除以dk的平方根)?

答: 在计算self-attention时,需要进行softmax操作,以计算每个输入序列位置对其他位置的注意力权重。为了避免softmax函数的指数计算导致数值溢出或下溢,Transformer模型中使用了scaled dot-product attention,即在softmax之前对向量点乘结果进行了缩放操作,用于控制点乘结果的大小。 具体来说,该缩放操作是将点乘结果除以一个值,这个值是输入向量的维度的平方根,即dk的平方根,其中dk表示每个向量的维度。这个缩放因子的作用是:当输入向量的维度增加时,点乘结果的大小也会增加,导致softmax函数的指数计算变得困难,缩放因子能够使点乘结果的大小保持在一个合适的范围内,从而提高计算的稳定性。

12.大概讲一下Transformer的Decoder模块?

答: Transformer模型的Decoder模块是用于将Encoder模块的输出映射到目标序列的一组连续表示的核心部分。该模块由多个Decoder层组成,每个Decoder层包括了以下几个部分:

自注意力层:与Encoder中的自注意力层类似,Decoder中的自注意力层也是将输入序列中每个位置的表示向量作为查询向量、键向量和值向量,通过多头注意力计算得到每个位置的上下文向量。 编码器-解码器注意力层:该层用于将Encoder模块的输出与Decoder中上一层的输出结合起来,以便更好地理解输入和输出之间的关系。具体来说,该层将Encoder模块的输出作为键向量和值向量,将Decoder中上一层的输出作为查询向量,通过多头注意力机制计算得到每个位置的上下文向量。 前馈神经网络层:该层对经过自注意力层和编码器-解码器注意力层编码的信息进行非线性变换,以提高模型的表达能力。 残差连接层和层归一化层:这两个层与Encoder模块中的残差连接层和层归一化层类似,用于保证模型的稳定性和加速训练。在每个Decoder层之间,都进行了层归一化处理。 Decoder模块的最后一层输出的表示向量经过一个线性变换和softmax函数,得到每个位置上每个单词的概率分布。然后可以根据分布进行单词的选择和预测。

13.Decoder阶段的多头自注意力和encoder的多头自注意力有什么区别?

答: 在Transformer模型中,Encoder和Decoder都包含多头自注意力机制。虽然它们的原理类似,但是在具体实现中,它们之间存在一些区别。下面分别介绍Decoder阶段的多头自注意力和Encoder的多头自注意力的区别: 1.查询向量不同:在Encoder的多头自注意力中,每个词向量都被用作查询、键和值,即Q = K = V Q=K=VQ=K=V,而在Decoder的多头自注意力中,查询向量是上一个Decoder层的输出,而键和值向量是Encoder模型的输出。 2.掩码:在Decoder的多头自注意力中,需要使用掩码来防止当前时间步的解码器看到未来时间步的信息。具体来说,将未来时间步的位置的注意力权重设置为0,这样在计算当前时间步的注意力分数时,就不会考虑未来时间步的信息。 3.添加编码:在Decoder的多头自注意力中,需要将编码器的输出添加到查询向量和键向量中,以便解码器能够了解输入序列的信息。 4.位置编码:在Decoder的多头自注意力中,位置编码的计算方式与Encoder中的位置编码不同。Encoder中的位置编码是为了表示输入序列中单词的位置关系,而Decoder中的位置编码是为了表示输出序列中单词的位置关系。

14.Transformer的并行化体现在哪个地方?Decoder端可以做并行化吗?

答:

  1. 多头注意力机制:多头注意力机制将输入序列分成多个子序列,并同时计算每个子序列的注意力表示,从而实现了多头并行计算。这种并行计算方式可以有效地加速模型的训练和推理过程。

  2. Encoder端的并行化:在Encoder端,Transformer模型将输入序列分成多个子序列,并分别在不同的计算设备上进行计算。这种并行计算方式可以显著提高模型训练的速度。 而在Decoder端,由于每个时间步的计算需要依赖上一个时间步的输出,因此无法进行完全的并行化。但是,可以通过一定的技巧来提高Decoder的并行化效率,例如:

  3. 延迟解码:在训练时,可以将目标序列分成多个子序列,并在不同的计算设备上同时进行解码。但是,在推理时,由于无法知道整个目标序列,因此需要使用延迟解码的方式,即在每个时间步上进行解码,并将上一个时间步的输出作为当前时间步的输入。

  4. Beam Search并行化:在推理时,可以使用Beam Search算法来生成目标序列,并通过将不同的Beam分配到不同的计算设备上来实现推理的并行化。 因此,虽然Decoder端无法像Encoder端那样进行完全的并行化,但是可以通过一定的技巧来提高其并行化效率。

15.简单描述一下Transformer中的前馈神经网络?使用了什么激活函数?相关优缺点?

答: Transformer模型中的前馈神经网络(Feed-Forward Neural Network,简称FFN)是在每个Encoder和Decoder层的自注意力层和编码器-解码器注意力层之间添加的一层全连接的前馈神经网络。它的输入是自注意力层或编码器-解码器注意力层的输出,输出是一个新的表示向量,其中包含了更高层次的语义信息。 在Transformer模型中,FFN使用了两层全连接的结构,两层之间使用了ReLU激活函数。具体来说,在每个FFN层中,输入的表示向量首先通过一个全连接层进行线性变换,然后再通过一个ReLU激活函数进行非线性变换,最后再通过另一个全连接层进行线性变换得到输出。 FFN的优点是可以通过多层的非线性变换,提取输入的更高层次的语义特征,从而提高模型的表达能力。另外,由于FFN的计算是独立进行的,因此可以通过并行化来加速模型的训练和推理过程。 但是,FFN也存在一些缺点。首先,由于FFN只考虑了每个位置的局部信息,因此无法处理序列中的长距离依赖关系。其次,由于FFN的计算复杂度较高,因此容易成为模型的瓶颈。最后,由于FFN没有考虑序列中的位置信息,因此可能会存在位置信息的混淆问题。 为了解决这些问题,一些变种的Transformer模型,如XLNet和Relative Positional Encoding等,引入了新的机制,以提高模型的性能和稳定性。

标签:总结,Transformer,模型,面试,输入,Decoder,注意力,向量
From: https://blog.csdn.net/m0_67647321/article/details/139579245

相关文章

  • 公式面试题总结(三)
    13.说说你对BOM的理解,常见的BOM对象你了解哪些?BOM(BrowserObjectModel),浏览器对象模型,⚫提供了独立于内容与浏览器窗口进行交互的对象⚫其作用就是跟浏览器做一些交互效果⚫比如如何进行页面的后退,前进,刷新,浏览器的窗口发生变化,滚动条的滚动,以及......
  • 斜率优化DP简单总结&&“土地购买”题解
    今天刚刷完了斜率优化DP,简单从头回顾一下。\[首先,能写出DP方程应该是最重要的,毕竟斜率只是用来优化的\]那么一个DP方程能用斜率优化,具备一种形式:\[f[i]+s1[i]+A[i]*B[j]=f[j]+s2[j]\]其中,f[i]表示所求值,(s1[i]、A[i])与(s2[j]、B[j])分别表示只与i或j有关的一个表达式(可以是只有常......
  • Tomcat源码解析(八):一个请求的执行流程(附Tomcat整体总结)
    Tomcat源码系列文章Tomcat源码解析(一):Tomcat整体架构Tomcat源码解析(二):Bootstrap和CatalinaTomcat源码解析(三):LifeCycle生命周期管理Tomcat源码解析(四):StandardServer和StandardServiceTomcat源码解析(五):StandardEngine、StandardHost、StandardContext、Standard......
  • 面试官:你讲下接口防重放如何处理?
    前言我们的API接口都是提供给第三方服务/客户端调用,所有请求地址以及请求参数都是暴露给用户的。我们每次请求一个HTTP请求,用户都可以通过F12,或者抓包工具fd看到请求的URL链接,然后copy出来。这样是非常不安全的,有人可能会恶意的刷我们的接口,那这时该怎么办呢?防重放攻击就出来了......
  • C&C++内存管理【new和delete操作符的详细分析】【常见面试题】
    C/C++内存管理1.C/C++内存分布我们先来看一段代码,来了解一下C/C++中的数据内存分布。#include<stdlib.h>intglobalVar=1;staticintstaticGlobalVar=1;//比globalVar还要先销毁,同一个文件下后定义的先析构//全局变量存在数据段(静态区)但是链接方式和静......
  • Redis 面试热点(一)
    Redis是一个高性能的内存数据库,广泛应用于缓存、会话管理、实时数据分析等场景。掌握Redis的常见问题和高级用法对于面试非常有帮助。本文将介绍5个Redis面试热点,帮助你在面试中脱颖而出。1.Redis数据类型及其应用场景常见数据类型String(字符串):最基本的类型,可......
  • 202400610刷题总结
    T1T559。T2(带权并查集)1380。把行和列的取值看成变量,其中行取1代表+1,列取1代表-1,为了凑x-y=c,这样可以拿并查集来做了。维护d[x],到根的距离,我们把边定义为+,反向走为-。这样就行了,如果在一个集合,那么判断距离是不是c。还可以差分约束,dfs(直接遍历一遍,遇到环就判断).#i......
  • 线性表总结(数据结构C++,大二下写,初学者)
    这段时间,我学到了这门课的第一种数据结构——线性表。关于线性表的知识,我总结为三方面:课本上学到的知识、上机实现课本上的例子的过程所学到的知识和力扣做题学到的知识和技巧。顺序表线性表中第一个学到的是顺序表,为此我翻了一下课本。顺序表,顾名思义,是线性表的顺序存储结构......
  • 深入对比:Transformer 与 RNN 的详细解析
    在自然语言处理(NLP)和机器学习领域,模型的选择对任务的成败至关重要。Transformer和RNN(递归神经网络)是两种流行但截然不同的模型架构。本文将深入探讨这两种架构的特点、优势、劣势,并通过实际案例进行比较。1.RNN(递归神经网络)1.1RNN简介RNN是一种处理序列数据的神经......
  • 计算机网络模型面试题50题
    在准备计算机网络模型相关的面试题时,可以围绕OSI七层模型、TCP/IP模型以及它们的相关协议、功能和应用场景来设计问题。下面是一些典型的面试题,涵盖从基础知识到更深层次的理解:###OSI七层模型1.描述OSI七层模型的每一层及其主要功能。2.OSI模型中哪些层负责数据的加密和......