本文介绍了一种使用基于学习的奖励函数(LRFs)解决稀疏奖励强化学习(RL)任务的方法。该方法称为LAMP,利用Vision-Language Models (VLMs)的零样本能力作为RL的预训练工具。通过计算语言指令与图像观察之间的对齐,LAMP生成探索奖励。该方法在RLBench的机器人操作任务上具有高的样本效率。
完成下面两步后,将自动完成登录并继续当前操作。