跳跃与播放:面向任意对象的深度驱动姿态保持图像生成
本研究将3D可变模型整合到多视角一致性扩散方法中,提高了生成扩散模型在创建人类头像任务中的质量和功能。实验证明了该方法在新视角合成任务上的性能改进,并实现了面部表情和身体姿势控制的无缝融入。该框架是第一个允许从单一图像创建完全3D一致、可动画和照片般逼真的人类头像的扩散模型。定量和定性评估证明了该方法相对于现有模型的优势。
原文中文,约300字,阅读约需1分钟。
本研究将3D可变模型整合到多视角一致性扩散方法中,提高了生成扩散模型在创建人类头像任务中的质量和功能。实验证明了该方法在新视角合成任务上的性能改进,并实现了面部表情和身体姿势控制的无缝融入。该框架是第一个允许从单一图像创建完全3D一致、可动画和照片般逼真的人类头像的扩散模型。定量和定性评估证明了该方法相对于现有模型的优势。