本研究探讨了多轮推理在大语言模型中的应用,提出了一种通过多轮推理近似图灵可计算函数的方法。研究结果表明,即使序列长度超出模型的上下文窗口,仍能有效学习并降低泛化误差,从而推动多轮序列学习与推理的理论基础发展。
完成下面两步后,将自动完成登录并继续当前操作。