本研究提出了DreamActor-M1框架,旨在提升人像动画技术的可控性和一致性。该框架结合扩散变换器和混合引导信号,实现了对面部表情和身体动作的有效控制,实验结果表明其在多种姿态和尺度下优于现有技术。
Soul App的技术论文《基于自回归动作生成的实时流式音频驱动人像动画系统》在CVPR 2025会议上被接收,展示了在实时音频驱动人像动画方面的创新,提出了提高视频生成效率和自然度的方法,标志着Soul在多模态AI能力上的进展。
复旦大学研究生开发的StableAnimator框架利用扩散模型生成高质量人像动画视频,确保身份一致性。该技术在影视、游戏和自媒体等领域具有潜力,解决了复杂动作下面部失真和视频质量下降的问题。通过创新的面部编码器和HJB优化,StableAnimator在身份一致性和视频保真度方面表现出色。
完成下面两步后,将自动完成登录并继续当前操作。