首页 > 其他分享 >【文本分类】ACT: an Attentive Convolutional Transformer for Efficient Text Classification

【文本分类】ACT: an Attentive Convolutional Transformer for Efficient Text Classification

时间:2023-01-17 11:33:35浏览次数:49  
标签:Convolutional Transformer Classification 卷积 模型 池化 ACT CNN


·阅读摘要:
  本文在Transformer模型的基础上,提出改进方案,把Transformer里面的自注意力机制,改成CNN。
·参考文献:
  [1] ACT: an Attentive Convolutional Transformer for Efficient Text Classification

【注】:众所周知,​​Transformer​​​是超越​​RNN​​​、​​CNN​​​的模型,​​Transformer​​​中最有新意的就是不使用​​RNN​​​、​​CNN​​​,而使用自注意力机制,从而使得​​Transformer​​​模型表现卓越。
  而本文提出的​​​ACT​​​模型就是把​​Transformer​​​中的自注意力机制替换成​​CNN​​​,我觉得这篇论文是否有意义,其实应该和​​Transformer​​的作者battle一下,哈哈。

[1] ACT模型

  先看一下​​Transformer​​模型:

【文本分类】ACT: an Attentive Convolutional Transformer for Efficient Text Classification_文本分类


  再看​​ACT​​模型:

【文本分类】ACT: an Attentive Convolutional Transformer for Efficient Text Classification_文本分类_02


  所以说,​​ACT​​​模型只是把​​Transformer​​的Scaled Dot-Product Attention模块换成了attentive convolution mechanism

  对于attentive convolution mechanism模块,主要就是CNN加了一个Global feature representation

【注】:说白了就是普通的CNN是卷积–>池化;而论文提出的CNN是卷积+池化,其中卷积部分称为提取局部信息,池化部分称为提取全局信息。


标签:Convolutional,Transformer,Classification,卷积,模型,池化,ACT,CNN
From: https://blog.51cto.com/u_15942590/6012020

相关文章