本文介绍了现代大型语言模型(LLMs)在处理较长序列时的上下文长度外推方法,并提出了一种修改位置编码基础的截断策略。作者通过广泛调研发现线性标度是扩展上下文长度的最佳方法,并且使用更长的标度在评估时可以获得进一步的收益。作者还发布了三个新的13B参数长上下文模型,并提供了复制结果的代码。
本文介绍了使用上下文长度外推方法扩展现代大型语言模型在评估时处理输入序列长度的研究。通过调研和新设计,发现线性标度是最佳方法,并可进一步提高效果。同时,发现截断基础中存在有希望的推测能力。为了支持进一步研究,发布了三个新的参数长上下文模型,并提供了复制结果的代码。
完成下面两步后,将自动完成登录并继续当前操作。