线性注意力简史:从模仿、创新到反哺

📝

内容提要

在中文圈,本站应该算是比较早关注线性Attention的了,在2020年写首篇相关博客《线性Attention的探索:Attention必须有个Softmax吗?》时,大家主要讨论的还是BERT...

➡️

继续阅读