当前人物图像动画扩散模型在身份一致性方面存在挑战。本文提出的StableAnimator是首个端到端身份保持的视频扩散框架,能够根据参考图像和姿态合成高质量视频,实验结果表明其在身份保持和动画质量上表现优异。
本研究提出了JoyVASA框架,旨在提高音频驱动肖像动画模型的效率,克服视频时长限制,能够生成更长的视频并实现动物面部动画。实验结果表明,动画质量和保真度显著提升。
本研究提出MIKU舞蹈方法,解决角色艺术动画中的高动态运动和参考引导失调问题,通过动态摄像机建模和灵活控制显著提升动画质量。
完成下面两步后,将自动完成登录并继续当前操作。