OAKINK2:一个复杂任务完成下的双手物体操作数据集
原文中文,约400字,阅读约需1分钟。发表于: 。OAKINK2 是一个用于复杂日常活动的双手物体操作任务数据集,该数据集通过三个抽象层次组织操作任务,包括作用力、基本任务和复杂任务,并提供人体、手和各种交互对象的多视图图像流和精确姿势注释。基于 OAKINK2 的三级抽象,研究人员提出了任务导向的复杂任务完成(CTC)框架,该框架使用大型语言模型将复杂任务目标分解为基本任务序列,并开发了动作实现模型以生成每个基本任务的双手运动。
该文章介绍了HANDAL数据集,用于机器人操纵可操作物体的姿态估计和可用性预测。数据集包含212个真实世界物体的2.2k个视频,共308k个带注释的图像帧。注释过程简化,可产生高质量的三维注释。应用范围包括硬件和厨房工具物体,促进机器人在实际场景中与环境交互的研究。数据集还提供了所有物体的三维重建网格。