TeCH: 文本引导下的逼真着装人体重建
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文提出了一种基于学习的模型,利用少量单目视频帧从移动的人中推断出其个性化的3D形状,重建精度为5mm。该模型学习预测统计体型模型的参数和实例化偏移量,同时加入衣服和头发的形状,具有快速和准确的预测。该模型仅基于合成的3D数据进行学习,可将可变数量的帧作为输入,即使仅有一张图像,也能以6mm的精度重建形状。三个不同数据集的结果表明了本方法的有效性和准确性。
🎯
关键要点
- 提出了一种基于学习的模型,利用少量单目视频帧推断个性化的3D形状。
- 重建精度可达到5mm,且在不到10秒内完成。
- 模型学习预测统计体型模型的参数和实例化偏移量,加入衣服和头发的形状。
- 模型结合了从上往下和从下往上的视图预测,具有快速和准确的预测能力。
- 仅基于合成的3D数据进行学习,可处理可变数量的帧,甚至一张图像也能以6mm精度重建形状。
- 三个不同数据集的结果验证了该方法的有效性和准确性。
➡️