Efficient Long-Range Language Modeling Based on Self-Supervised Causal Retrieval

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出了一种新的分组交叉注意力模块,解决了检索基础语言模型在因果语言模型中的适应问题。通过联合预训练,该模型能有效检索过去的文本块,降低生成文本的自回归损失。在长达64K的上下文长度下实现高效预训练,同时保持较低的困惑度和成本。

🎯

关键要点

  • 本研究提出了一种新的分组交叉注意力模块,解决了检索基础语言模型在因果语言模型中的适应问题。

  • 该模型通过联合预训练,能够有效检索过去的文本块,降低生成文本的自回归损失。

  • 在长达64K的上下文长度下,该模型实现了高效的预训练。

  • 模型在保持较低困惑度的同时,维持了相似或更低的预训练和推理成本。

➡️

继续阅读