本研究提出了解耦价值策略优化(DVPO)框架,解决了传统近端策略优化(PPO)在大语言模型训练中的计算复杂性和不稳定性问题,显著降低了GPU内存和训练时间,并在多个基准测试中优于其他强化学习方法。
完成下面两步后,将自动完成登录并继续当前操作。