本研究提出了一种聚合微调(AFT)方法,旨在有效整合多个草稿响应以生成优化答案。实证评估显示,AFT训练的模型在基准数据集上显著优于传统微调技术,表明在不增加数据量或模型规模的情况下,能够释放大语言模型的潜力。
完成下面两步后,将自动完成登录并继续当前操作。