研究人员发现大型语言模型(LLMs)在处理个别推理步骤时表现良好,但在整个推理链上保持一致性方面存在困难。为了解决这个问题,他们引入了“规划标记”作为模型的指南,并通过微调模型的参数来实现。他们的方法在三个数学问题数据集上进行了评估,相对于基准方法,取得了显著的准确性提升。
完成下面两步后,将自动完成登录并继续当前操作。