清华与通院提出的“绝对零”训练法,通过自我博弈提升大模型的推理能力,无需外部数据。该方法在代码环境中训练,模型在数学推理和编程任务上表现优异,超越传统专家标注样本训练的模型。
本研究提出了一种自我博弈评价器(SPC)方法,旨在解决大语言模型(LLM)推理中缺乏高质量逐步监督的问题。通过对抗性自我博弈,SPC能够有效识别错误推理步骤,提高错误检测能力和准确率,显著超越现有基线,对LLM推理表现产生重要影响。
本研究探讨自我博弈在模拟环境中提升自主驾驶能力。通过Gigaflow模拟器进行的1.6亿公里模拟驾驶中,该政策在三项自动驾驶基准测试中表现优异,超越真实场景中的最佳表现,展现出卓越的鲁棒性和自然性。
研究探讨自我博弈强化学习在谈判对话系统中的应用,发现其难以学习妥协价值,导致协议失败。通过修改训练程序,设计不同个性的代理,分析其与人类合作的表现。结果表明,自私代理在最大化自身利益的同时避免退出,能为双方创造更多价值,优于其他变体。这对未来谈判系统设计具有重要意义。
该论文介绍了一种名为Deep Latent Competition(DLC)的强化学习算法,通过自我博弈在想象中学习竞争性视觉控制策略,实现长期推理。DLC代理人在紧凑潜在空间中想象多智能体互动序列,减少实际采样成本,同时潜在表示启用规划随着观察维度的扩展而平滑扩展。该算法在新颖多智能体比赛基准测试中学习了有效的竞争行为。
完成下面两步后,将自动完成登录并继续当前操作。