实时全面的未知状态机器人姿态估计

原文约300字,阅读约需1分钟。发表于:

通过单个 RGB 图像进行实时机器人姿态估计的端到端流程,无需已知机器人状态,并达到了领先水平的 12 倍速度提升。

本文提出了一种基于卷积神经网络的多阶段流水线方法,用于准确分割和定位手部区域并估计2D和3D的关节点位置。通过新颖的投影算法计算全局关节点位置,并引入合成3D手部姿态数据集。在RGB-only信息下,超越了以往的3D典型手部姿态估计基准数据集,并实现了双手的准确全局3D手部跟踪。进行了广泛的评估。

相关推荐 去reddit讨论