本文提出了一种从单个RGB视频自动重建与对象的人交互的3D运动的方法,估计人和物体的3D姿势,接触位置,被人类肢体激活的力和扭矩。方法通过联合估计运动和动作力,运用大规模的轨迹优化问题,并从输入视频自动识别出人与物体或地面之间的接触位置和时间。方法在真实数据集上验证,并展示了在新的互联网视频数据集中的性能。
本文提出了一种从单个RGB视频自动重建与对象的人交互的3D运动的方法,估计人和物体的3D姿势、接触位置、被人类肢体激活的力和扭矩。方法主要集中在联合估计运动和动作力,运用大规模的轨迹优化问题,并且从输入视频自动识别出人与物体或地面之间的接触位置和时间。通过真实数据集验证了方法,并展示了它在新的互联网视频数据集中的性能。
本文提出了一种自动重建和交互的3D运动方法,能够估计人和物体的3D姿势、接触位置、力和扭矩,并在输入视频中自动识别出接触位置和时间。该方法在真实数据集和互联网视频数据集中验证了其性能。
完成下面两步后,将自动完成登录并继续当前操作。