高维奖励的离策略强化学习

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

该论文研究了具有线性函数逼近的离线强化学习问题,并提出了一种计算效率高的算法。该算法在数据集的单策略覆盖条件下成功,输出的策略价值至少等于数据集覆盖良好的任何策略的价值。算法在固有贝尔曼误差为0的情况下提供了第一个保证,并且在固有贝尔曼误差为正值的情况下,算法的次最优误差与固有贝尔曼误差的平方根成比例。该算法的下界与强化学习在错误建模情况下的其他设置形成对比。

🎯

关键要点

  • 该论文研究了具有线性函数逼近的离线强化学习问题。

  • 主要假设是MDP具有低固有贝尔曼误差,线性值函数对贪婪策略具有线性贝尔曼备份。

  • 提出了一种计算效率高的算法,在单策略覆盖条件下成功。

  • 输出的策略价值至少等于数据集覆盖良好的任何策略的价值。

  • 在固有贝尔曼误差为0的情况下,算法提供了第一个保证。

  • 在固有贝尔曼误差为正值的情况下,算法的次最优误差与固有贝尔曼误差的平方根成比例。

  • 证明了无法改进次最优误差与固有贝尔曼误差平方根的比例关系。

  • 算法的下界与强化学习在错误建模情况下的其他设置形成对比。

➡️

继续阅读