RL-CFR: 在具有强化学习的不完全信息扩展形式博弈中改进动作抽象
原文中文,约200字,阅读约需1分钟。发表于: 。RL-CFR 是一种基于强化学习的动态行动抽象方法,通过建立具有强化学习指导的行动抽象的游戏树,并利用反事实后悔最小化 (CFR) 进行策略推导,实现了更高的期望回报而不增加 CFR 解决时间,在 Heads-up No-limit Texas Hold'em 等游戏中胜率明显优于 ReBeL 的复制和 Slumbot。
本文介绍了一种名为本地无后悔学习(LONR)的算法,它使用类似于Q学习的更新规则,可以在没有输入状态或完美回忆的情况下进行学习。实验证明,LONR算法在MDPs和有限扩展中具有收敛性,并在许多情况下实现了最后迭代的收敛。特别是在NoSDE游戏这类的Markov游戏中表现出色。