单图像,任意人脸:可泛化的3D人脸生成
原文中文,约300字,阅读约需1分钟。发表于: 。本研究针对从单张无约束图像生成3D人脸头像的挑战,提出了Gen3D-Face模型,能够在多视角一致的扩散框架下生成3D人脸。我们的方法通过输入条件的网格估计和合成的多视角训练数据,增强了模型对人脸几何信息的泛化能力,并引入多视角联合生成方案,以提高各视图之间的外观一致性。实验结果表明,该方法在生成泛域单图像3D人脸方面优于以往方法,并在特定领域设置中表现出色。
本研究将3D可变模型与多视角一致性扩散方法结合,提升生成扩散模型在头像生成中的表现。实验表明,该方法在单图像新视角合成中效果突出,实现了面部表情和身体姿势的精准控制,是首个能从单一图像生成3D一致可动画头像的模型,优于现有技术。