基于 Transformer 的袋装奖励增强学习:面向实例级奖励重新分配的方法
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
本文介绍了使用序列建模解决强化学习问题的方法,使用Transformer架构建模轨迹分布并改造波束搜索作为规划算法。展示了该方法在长时间序列预测、模仿学习、目标条件下的强化学习和离线强化学习方面的灵活性和高效性。同时,与基于模型的算法相结合,在稀疏奖励和长时间序列任务中表现出最先进的计划器。
🎯
关键要点
-
使用序列建模解决强化学习问题
-
采用Transformer架构建模轨迹分布
-
改造波束搜索作为规划算法
-
在长时间序列预测中展示灵活性和高效性
-
在模仿学习和目标条件下的强化学习中表现优异
-
在离线强化学习方面也展现出高效性
-
与基于模型的算法结合,提升稀疏奖励任务的表现
-
在长时间序列任务中成为最先进的计划器
🏷️
标签
➡️