标签
强化学习
相关的文章:本列表汇集了最新的强化学习研究成果,涵盖价值对齐、策略优化及应用实例,展示了该领域的前沿进展与创新思路。
首次解释LLM如何推理反思!西北大学谷歌新框架:引入贝叶斯自适应强化学习,数学推理全面提升
机器狗能当羽毛球搭子了!仅靠强化学习从0自学,还涌现出类人回位行为 | Science子刊
Prime Intellect发布INTELLECT-2:一款通过去中心化强化学习训练的32亿参数模型
Prime Intellect has released INTELLECT-2, a 32 billion parameter language model trained using fully asynchronous reinforcement learning across a decentralized network of compute contributors....
Prime Intellect发布了基于去中心化网络的32亿参数语言模型INTELLECT-2,采用完全异步强化学习。该模型使用PRIME-RL框架,分离生成、更新和广播任务,通过SHARDCAST分发模型权重,并通过TOPLOC验证推理结果。INTELLECT-2在285,000个数学和编程任务上训练,表现优于前代模型。未来计划包括提升推理与训练的计算比率及整合更多工具。

DISCO平衡尺度:基于适应性领域和难度的强化学习在不平衡数据上的应用
Pass@K 策略优化:解决更难的强化学习问题
ViaRL:通过视觉迭代放大强化学习进行自适应时间定位
关于推理搜索交错LLM代理的强化学习实证研究
本研究解决了在训练复杂推理的搜索代理时,强化学习的最佳设计尚未清晰的问题。通过系统的实证研究,我们发现格式化奖励能够有效提高最终性能,而中间检索奖励的影响有限;LLM的规模及初始化方式对强化学习结果显著影响;搜索引擎的选择在RL训练动态和代理推理的稳健性中起着关键作用。这些发现为现实世界应用中的LLM搜索代理的构建和部署提供了重要指导。
本研究探讨了强化学习在复杂推理搜索代理训练中的最佳设计,发现格式化奖励显著提升性能,而中间检索奖励影响有限。LLM的规模和初始化方式对结果有重要影响,搜索引擎的选择对训练动态和推理稳健性至关重要。这些发现为LLM搜索代理的应用提供了指导。
从解决问题到教授解决问题:通过强化学习将大型语言模型与教育法对齐
本研究解决了大型语言模型(LLMs)在教育中应用中的一个关键问题,即其为直接问答优化而忽视了有效教育法需要战略性保留答案的需求。我们提出了一种基于在线强化学习的对齐框架,能够迅速将LLMs转变为有效的导师,通过强化教育质量和指导性问题解决,且在无需人工注释的情况下训练出的7B参数导师模型,表现与更大规模的专有模型相当,具有显著的教育影响。
本研究提出了一种在线强化学习框架,旨在解决大型语言模型在教育中忽视有效教学法的问题。该框架能够迅速将模型转变为有效的导师,训练出的7B参数模型在教育质量和指导性问题解决方面表现优异,产生了显著影响。