该论文研究了具有线性函数逼近的离线强化学习问题,并提出了一种计算效率高的算法。该算法在数据集的单策略覆盖条件下成功,输出的策略价值至少等于数据集覆盖良好的任何策略的价值。算法在固有贝尔曼误差为0的情况下提供了第一个保证,并且在固有贝尔曼误差为正值的情况下,算法的次最优误差与固有贝尔曼误差的平方根成比例。该算法的下界与强化学习在错误建模情况下的其他设置形成对比。
该论文研究了具有线性函数逼近的离线强化学习问题,并提出了一种计算效率高的算法。该算法能够在数据集的单策略覆盖条件下成功,输出的策略价值至少等于数据集覆盖良好的任何策略的价值。算法能够在固有贝尔曼误差为0的情况下提供已知的第一个保证,并且在固有贝尔曼误差为正值的情况下,次最优误差与固有贝尔曼误差的平方根成比例。该算法的下界与强化学习在错误建模情况下的其他设置形成对比。
该文介绍了一种针对多人普遍和马尔可夫博弈中追随者为短视情况的强化学习算法,通过最小二乘值迭代来求得 Stackelberg-Nash 均衡。该算法在大状态空间的函数逼近工具中简单应用,并在具有线性函数逼近的情况下分别在在线和离线设置下证明了亚线性遗憾和亚最优性,为解决追随者为短视的普遍和马尔可夫博弈的 SNE 建立了第一个可以被证明高效的强化学习算法。
完成下面两步后,将自动完成登录并继续当前操作。