TransformerFAM:反馈注意力即工作记忆

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

该研究介绍了一种将基于Transformer的大型语言模型扩展到无限长输入的有效方法,同时保证有界内存和计算。该方法使用了新的Infini-attention技术,将压缩性记忆融入传统的注意力机制中,并在单个Transformer块中集成了局部和长期线性注意力机制。该方法在长文本语言建模、1M序列长度密钥上下文块检索和500K长度的书籍摘要任务上展示了有效性,使用1B和8B规模的大型语言模型。该方法引入了有界内存参数,并实现了LLMs的快速流式推理。

🎯

关键要点

  • 该研究提出了一种将基于Transformer的大型语言模型扩展到无限长输入的方法。
  • 新技术Infini-attention将压缩性记忆融入传统注意力机制。
  • 方法在单个Transformer块中集成了局部和长期线性注意力机制。
  • 该方法在长文本语言建模、1M序列长度检索和500K长度书籍摘要任务上有效。
  • 使用1B和8B规模的大型语言模型进行实验。
  • 引入了有界内存参数,实现了LLMs的快速流式推理。
➡️

继续阅读