Self attention考虑了整个sequence的资讯【transfermer中重要的架构是self-attention】
解决sequence2sequence的问题,考虑前后文
I saw a saw 第一个saw对应输出动词 第二个输出名词
如何计算相关性【attention score】
输入的两个向量乘两个矩阵
Q=query k=key
看a1,自己和自己也计算了关联性。【a1,1】
只需要学习三个矩阵的参数
标签:输出,self,attention,矩阵,a1,saw From: https://www.cnblogs.com/yankun1482/p/17566896.html