多智能体 MDPs 中的自适应对手策略检测:利用运行误差估计的实时策略切换识别
该论文介绍了一种扩展的 Mirror Descent 方法,用于克服合作多智能体强化学习设置中的挑战。提出的 Heterogeneous-Agent Mirror Descent Policy Optimization 算法通过解决信任域问题的近似解来迭代更新智能体策略,保证了稳定性并提高了性能。HAMDPO 在 Multi-Agent MuJoCo 和 StarCraftII 任务上的评估结果表明其优越性,是解决合作 MARL 问题的一种有希望的方法。
Heterogeneous-Agent Mirror Descent Policy Optimization
Multi-Agent MuJoCo
StarCraftII
信任域问题
合作 MARL 问题
合作多智能体强化学习
多智能体
性能
扩展的 Mirror Descent 方法
稳定性
评估结果
原文中文,约500字,阅读约需1分钟。