IN-RIL:用于策略微调的交替强化学习与模仿学习

本文解决了现有模仿学习与强化学习结合方法在微调阶段的不稳定性和样本效率低下的问题。作者提出了一种新的方法IN-RIL,通过在多次强化学习更新后定期注入模仿学习更新,结合了模仿学习的稳定性和专家数据的指导,从而提高了微调过程中的探索效率。实验结果表明,IN-RIL显著提高了在多种任务中的样本效率,并有效减少了在线微调中的性能崩溃。

本文提出了一种新方法IN-RIL,旨在解决模仿学习与强化学习结合中的不稳定性和样本效率低下的问题。通过定期注入模仿学习更新,IN-RIL提高了探索效率,实验结果表明其在多任务中显著提升了样本效率,并减少了性能崩溃现象。

原文中文,约300字,阅读约需1分钟。发表于:
阅读原文