本研究提出了LLM-Explorer,利用大型语言模型分析学习状态,生成特定任务的探索策略并动态调整。实验结果显示,该方法在Atari和MuJoCo基准测试中平均提升表现37.27%。
本研究提出了一种新方法SUPE,通过提取低级技能和伪标记未标记轨迹数据,提升强化学习中的探索策略,从而显著提高稀疏奖励任务的探索效率。
本文研究了强化学习中探索的挑战,提出了基于内在动机的复杂启发式探索策略来解决稀疏奖励下的任务。实验表明,该策略在高维状态空间和策略外奖励下的各种环境中表现出色,优于其他启发式探索技术。
完成下面两步后,将自动完成登录并继续当前操作。