GRIP: 使用潜在一致性和空间线索生成交互姿态
原文中文,约300字,阅读约需1分钟。发表于: 。通过在计算机图形学、计算机视觉和混合现实等应用中建模真实的手物体相互作用,本研究引入了一种名为 GRIP 的基于学习的方法,从而综合生成符合逻辑的手的运动。通过引入一种新的方法来保证运动的时间一致性并生成一致的交互动作,GRIP 生成了精确的手部姿势,避免手与物体的穿透,实验证明其优于基准方法,并且适用于不同动作捕捉数据集中的不可见物体和动作。
本研究介绍了一种名为GRIP的基于学习的方法,用于模拟真实手部与物体的相互作用。GRIP能够生成精确的手部姿势,避免手与物体的穿透。实验证明,GRIP优于基准方法,并适用于不同动作捕捉数据集中的不可见物体和动作。