• 2024-06-10attention机制、LSTM二者之间,是否存在attention一定优于LSTM的关系呢?
    这里没有严格的论证,只是自己的一些理解。attention机制下的Transformer确实是当前AI技术中最为火热的,基于其构建的大语言模型可以说是AI技术至今最强的技术之一了,但是attention是否真的的一定优于LSTM呢?其实,attention的效果或者说Transformer的效果是和数据量的多少有关系的,如