改进样本复杂度的学习零和线性二次博弈

原文中文,约300字,阅读约需1分钟。发表于:

我们提出了一种简化的嵌套零阶算法,通过改进样本复杂度几个数量级,并使用单点零阶估计器,在相同假设下确保了 Γ(E^3) 样本复杂度。

该文介绍了一种新的Q-learning算法,通过使用经过熵正则化的软策略来近似Q函数更新期间的纳什策略,从而减少学习零和随机博弈的计算成本。该算法能够快速适应新环境,并提供了动态超参数调度方案来加快收敛速度。实证结果验证了该算法收敛于纳什平衡,并且比现有算法具有更快的加速效果。

相关推荐 去reddit讨论