我们提出了EffHandNet和EffHandEgoNet两种方法,用于单手姿态估计和自我视角的手物交互。在H2O和FPHA数据集上表现优异,推断速度更快,精度分别达到91.32%和94.43%,超越现有3D技术。
该研究提出了一种基于物理的方法来合成全身手物交互,通过层次化框架和强化学习,成功完成了从接近物体到抓取和后续操纵的完整交互任务,并展示出比基于运动学的基线方法更具物理合理性的动作。
完成下面两步后,将自动完成登录并继续当前操作。