在连续状态 - 动作空间中驯服 “数据饥饿” 的强化学习稳定性
原文中文,约300字,阅读约需1分钟。发表于: 。我们介绍了一种分析连续状态 - 动作空间强化学习的新框架,并将其用于在离线和在线设置中证明收敛速度快。我们的分析突显了两个关键的稳定性属性,涉及价值函数和 / 或策略变化如何影响贝尔曼算子和占据测度。我们认为这些属性在许多连续状态 -...
这篇文章介绍了一种新的框架,用于分析连续状态-动作空间强化学习,并证明了其在离线和在线设置中的快速收敛速度。作者突显了稳定性属性,涉及价值函数和策略变化对贝尔曼算子和占据测度的影响。文章还提供了离线和在线强化学习中悲观主义和乐观主义的新视角,并突出了离线强化学习与迁移学习之间的联系。