使用稀疏自编码器解释 RLHF 调整的语言模型中的奖励模型
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本文提出了一种名为LAMP的方法,利用Vision-Language Models的零样本能力作为预训练工具,生成探索奖励,以获得受语言条件约束的预训练策略。该方法可以在RLBench的机器人操作任务上启动样本效率高的学习。
🎯
关键要点
- 使用基于学习的奖励函数(LRFs)解决稀疏奖励强化学习(RL)任务取得稳定进展。
- 提出了一种名为LAMP的方法,将LRFs作为RL的预训练信号。
- LAMP利用Vision-Language Models (VLMs)的零样本能力作为预训练工具。
- 通过对比对齐语言指令与图像观察,LAMP生成嘈杂但有形状的探索奖励。
- LAMP优化探索奖励以获得受语言条件约束的预训练策略。
- LAMP方法在RLBench的机器人操作任务上实现了高样本效率学习。
➡️