强化学习中的退化策略:限制策略优化方法中的替代目标方差
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文提出了一种适用于主流政策优化算法的强化学习框架,通过引入 dropout 技术,避免了代理目标方差过度增加,并在 Atari 2600 环境中验证了 D-PPO 相对于 PPO 算法在性能上取得了显著的改进。
🎯
关键要点
-
提出了一种适用于主流政策优化算法的强化学习框架。
-
引入了 dropout 技术,避免了代理目标方差过度增加。
-
在 Atari 2600 环境中验证了 D-PPO 相对于 PPO 算法的性能改进。
-
D-PPO 有效限制了训练过程中代理目标方差的过度增加。
🏷️
标签
➡️