本研究提出了一种新方法——贪心注意力对数插值(GALI),旨在解决大型语言模型在处理超出训练上下文窗口的输入时性能下降的问题,从而显著提升长文本理解能力。
完成下面两步后,将自动完成登录并继续当前操作。