高维奖励的离策略强化学习
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
该论文研究了具有线性函数逼近的离线强化学习问题,并提出了一种计算效率高的算法。该算法在数据集的单策略覆盖条件下成功,输出的策略价值至少等于数据集覆盖良好的任何策略的价值。算法在固有贝尔曼误差为0的情况下提供了第一个保证,并且在固有贝尔曼误差为正值的情况下,算法的次最优误差与固有贝尔曼误差的平方根成比例。该算法的下界与强化学习在错误建模情况下的其他设置形成对比。
🎯
关键要点
-
该论文研究了具有线性函数逼近的离线强化学习问题。
-
主要假设是MDP具有低固有贝尔曼误差,线性值函数对贪婪策略具有线性贝尔曼备份。
-
提出了一种计算效率高的算法,在单策略覆盖条件下成功。
-
输出的策略价值至少等于数据集覆盖良好的任何策略的价值。
-
在固有贝尔曼误差为0的情况下,算法提供了第一个保证。
-
在固有贝尔曼误差为正值的情况下,算法的次最优误差与固有贝尔曼误差的平方根成比例。
-
证明了无法改进次最优误差与固有贝尔曼误差平方根的比例关系。
-
算法的下界与强化学习在错误建模情况下的其他设置形成对比。
➡️