改进样本复杂度的学习零和线性二次博弈
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
该文介绍了一种新的Q-learning算法,通过使用经过熵正则化的软策略来近似Q函数更新期间的纳什策略,从而减少学习零和随机博弈的计算成本。该算法能够快速适应新环境,并提供了动态超参数调度方案来加快收敛速度。实证结果验证了该算法收敛于纳什平衡,并且比现有算法具有更快的加速效果。
🎯
关键要点
-
提出了一种新的Q-learning算法,使用熵正则化的软策略来近似Q函数更新期间的纳什策略。
-
该算法能够减少学习零和随机博弈的计算成本。
-
在特定条件下,该算法通过更新正则化的Q函数收敛于纳什平衡。
-
算法展示了快速适应新环境的能力。
-
提供了一种动态超参数调度方案以加快收敛速度。
-
实证结果表明该算法收敛于纳什平衡,并且比现有算法具有更快的加速效果。
🏷️
标签
➡️