光滑 MDPs 中的无悔强化学习
💡
原文中文,约500字,阅读约需2分钟。
📝
内容提要
本论文提出了一种新的结构性假设,即$u-$平滑性,用于解决强化学习中的无后悔保证挑战。作者提出了两种算法,extsc {Legendre-Eleanor}和extsc {Legendre-LSVI},用于在$u-$平滑 MDPs中最小化后悔。结果表明这些算法达到了最佳保证。
🎯
关键要点
- 本论文提出了一种新的结构性假设,即$u-$平滑性,用于解决强化学习中的无后悔保证挑战。
- 引入的$u-$平滑性概括了大多数已提出的设置,如线性MDPs和Lipschitz MDPs。
- 提出了两种算法:Legendre-Eleanor和Legendre-LSVI,用于在$u-$平滑MDPs中最小化后悔。
- Legendre-Eleanor算法在较弱的假设下实现无后悔属性,但计算效率低。
- Legendre-LSVI算法运行时间为多项式级别,适用于较小的问题类别。
- 分析结果表明,这些算法达到了最佳保证,且与RL理论的最新成果进行了比较。
➡️