OKAMI:通过单个视频模仿教导类人机器人操作技能
原文中文,约300字,阅读约需1分钟。发表于: 。本研究解决了通过单个视频演示教导类人机器人操作技能的问题。提出的OKAMI方法能够从单个RGB-D视频生成操作计划,并制定执行策略。实验表明,OKAMI在不同视觉和空间条件下表现出色,成功率达到79.2%,显著超过了现有顶尖水平,展现了其在开放世界模仿中的应用潜力。
本文介绍了一种视觉模仿学习方法,通过自监督学习从单个人类演示中学习机器人操作。该方法将模仿学习视为状态估计问题,利用末端执行器姿态作为状态。在训练中,摄像头自动围绕对象移动。测试时,机器人沿线性路径移动并重放演示速度,生成复杂交互轨迹。实验表明,该方法能从单次演示中学习多种技能,控制器稳定且可解释。