面向高效人体网格估计的 MoCap 到视觉领域自适应从 2D 关键点
💡
原文中文,约500字,阅读约需2分钟。
📝
内容提要
本文介绍了一种新颖的弱监督基于关键点的框架,用于三维姿势转换。该方法能够克服没有配对训练数据、分离姿势和形状信息以及处理不同拓扑结构的网格等挑战。通过关键点检测器和逆向运动学计算源网格与目标网格之间的变换,只需对关键点进行监督,从目标网格中提取仅限于姿势的信息。通过循环重建实现自监督姿势转换,无需与目标和源相同姿势和形状的地面实况变形网格。在人类和动物数据集上评估结果表明,该方法性能优越,与无监督和完全监督方法相比具有可比性。在更具挑战性的 Mixamo 数据集上的测试进一步展示了该方法的强大泛化能力。
🎯
关键要点
- 三维姿势转换面临的主要挑战包括缺乏配对训练数据、分离姿势和形状信息的困难,以及不同拓扑结构网格的应用问题。
- 提出了一种新颖的弱监督基于关键点的框架来克服这些挑战。
- 该方法使用与拓扑无关的关键点检测器和逆向运动学计算源网格与目标网格之间的变换。
- 只需对关键点进行监督,能够从目标网格中提取仅限于姿势的信息,而不传递形状信息。
- 设计了循环重建以实现自监督姿势转换,无需与目标和源相同姿势和形状的地面实况变形网格。
- 在基准人类和动物数据集上评估结果显示,该方法性能优越,与无监督和完全监督方法相比具有可比性。
- 在更具挑战性的Mixamo数据集上的测试进一步展示了该方法的强大泛化能力。
➡️