RL-CFR: 在具有强化学习的不完全信息扩展形式博弈中改进动作抽象

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

本文介绍了一种名为本地无后悔学习(LONR)的算法,它使用类似于Q学习的更新规则,可以在没有输入状态或完美回忆的情况下进行学习。实验证明,LONR算法在MDPs和有限扩展中具有收敛性,并在许多情况下实现了最后迭代的收敛。特别是在NoSDE游戏这类的Markov游戏中表现出色。

🎯

关键要点

  • 介绍了一种名为本地无后悔学习(LONR)的算法。
  • LONR算法使用类似于Q学习的更新规则。
  • 该算法允许在没有输入状态或完美回忆的情况下进行学习。
  • 实验证明LONR算法在MDPs和有限扩展中具有收敛性。
  • LONR算法在许多情况下实现了最后迭代的收敛。
  • 特别是在NoSDE游戏这类的Markov游戏中表现出色。
➡️

继续阅读