OHTA: One-shot Hand Avatar Based on Data-driven Implicit Priors
原文约100字/词,阅读约需1分钟。发表于: 。本文研究了基于一张图像快速创建逼真、可驾驶的单镜头手部虚拟形象。我们提出了一种新方法 OHTA(One-shot Hand avaTAr),该方法通过学习和利用数据驱动的手部先验模型,解决了数据受限问题。OHTA 展示了仅凭一张图像便能创建高保真度、一致可动的手部虚拟形象的能力,并通过文本转换、手部编辑和身份潜在空间操作等多种应用展示了 OHTA 的多功能性。
本文研究了基于一张图像快速创建逼真、可驾驶的单镜头手部虚拟形象。通过学习和利用数据驱动的手部先验模型,解决了数据受限问题。OHTA 展示了仅凭一张图像便能创建高保真度、一致可动的手部虚拟形象的能力,并通过多种应用展示了 OHTA 的多功能性。