基于扩散的二维角色生成框架:Make-Your-Anchor
原文中文,约300字,阅读约需1分钟。发表于: 。本研究提出了一种名为 Make-Your-Anchor 的新系统,通过仅需一个人的一分钟视频训练,从而实现了自动生成具有准确躯干和手部运动的锚定式视频,包括优化人物外观、扩展为任意时长的视频以及提高输出视频中面部区域的视觉质量,比传统方法在视觉质量、时间连贯性和身份保护方面表现出更高的效果和优越性。
本研究将3D可变模型整合到多视角一致性扩散方法中,提高了生成扩散模型在创建逼真人类头像任务中的质量和功能。实验证明了生成流水线模型在新视角合成任务上的性能改进,并实现了面部表情和身体姿势控制的无缝融入。这是第一个允许从单一图像创建完全3D一致、可动画和逼真的人类头像的扩散模型。定量和定性评估证明了该方法在新视角和新表情合成任务上的优势。