RL-CFR: 在具有强化学习的不完全信息扩展形式博弈中改进动作抽象
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
本文介绍了一种名为本地无后悔学习(LONR)的算法,它使用类似于Q学习的更新规则,可以在没有输入状态或完美回忆的情况下进行学习。实验证明,LONR算法在MDPs和有限扩展中具有收敛性,并在许多情况下实现了最后迭代的收敛。特别是在NoSDE游戏这类的Markov游戏中表现出色。
🎯
关键要点
- 介绍了一种名为本地无后悔学习(LONR)的算法。
- LONR算法使用类似于Q学习的更新规则。
- 该算法允许在没有输入状态或完美回忆的情况下进行学习。
- 实验证明LONR算法在MDPs和有限扩展中具有收敛性。
- LONR算法在许多情况下实现了最后迭代的收敛。
- 特别是在NoSDE游戏这类的Markov游戏中表现出色。
➡️