E2LLM:用于长上下文理解和推理的编码器加长大型语言模型

BriefGPT - AI 论文速递 BriefGPT - AI 论文速递 ·

本文介绍了处理较长序列时现代大型语言模型(LLMs)的上下文长度外推方法,通过测试发现线性标度是最佳方法,并且使用更长的标度在评估时可以获得进一步的收益。同时,发布了三个新的13B参数长上下文模型和相应的代码。

原文中文,约500字,阅读约需2分钟。
阅读原文