标签
强化学习
相关的文章:本列表汇集了最新的强化学习研究成果,涵盖从机器翻译到多智能体系统的应用,展示了强化学习在各领域的创新与挑战。
ORL-LDM:离线强化学习指导的潜在扩散模型超分辨率重建
J1:通过强化学习激励大型语言模型作为评判者的思维能力
IN-RIL:用于策略微调的交替强化学习与模仿学习
本文解决了现有模仿学习与强化学习结合方法在微调阶段的不稳定性和样本效率低下的问题。作者提出了一种新的方法IN-RIL,通过在多次强化学习更新后定期注入模仿学习更新,结合了模仿学习的稳定性和专家数据的指导,从而提高了微调过程中的探索效率。实验结果表明,IN-RIL显著提高了在多种任务中的样本效率,并有效减少了在线微调中的性能崩溃。
本文提出了一种新方法IN-RIL,旨在解决模仿学习与强化学习结合中的不稳定性和样本效率低下的问题。通过定期注入模仿学习更新,IN-RIL提高了探索效率,实验结果表明其在多任务中显著提升了样本效率,并减少了性能崩溃现象。
通过自主车辆扩展水下声学跟踪的多智能体强化学习
基于强化学习的四旋翼容错控制与在线变压器适应
基于自编码器驱动的任务和新环境识别的持续强化学习
本研究解决了强化学习代理在持续学习中面临的挑战,尤其是在没有外部信号指示任务或环境变化的情况下如何保留和利用现有信息。我们提出了一种新方法,通过整合策略优化与熟悉度自编码器,展示了系统在识别和学习新任务或环境时能有效保留早期经历的知识,并在再次遇到已知环境时选择性检索相关知识的能力。初步结果表明,在没有外部信号的情况下,成功实现了持续学习,展现了该方法的潜力。
本研究提出了一种新方法,解决强化学习代理在持续学习中保留和利用现有信息的问题。通过结合策略优化与熟悉度自编码器,系统能够有效识别新任务并选择性检索相关知识,初步结果表明在无外部信号的情况下成功实现持续学习。