本文介绍了一种名为Mega的单头门控注意力机制,通过将整个序列分成多个具有固定长度的块,实现了线性时间和空间复杂度。在长序列建模、神经机器翻译、自回归语言建模以及图像和语音分类等测试中,Mega优于其他序列模型,包括Transformer的变体和最近的状态空间模型。
本文介绍了一种名为Mega的单头门控注意力机制,具有指数移动平均数以将位置感知的局部依赖性的归纳偏差纳入位置不可知的注意力机制中。该文进一步提出了Mega的变体,通过将整个序列有效地分成多个具有固定长度的块以实现线性时间和空间复杂度。在长序列建模、神经机器翻译、自回归语言建模以及图像和语音分类等广泛测试中,证明了Mega优于其他序列模型,包括Transformer的变体和最近的状态空间模型。
完成下面两步后,将自动完成登录并继续当前操作。