本研究提出了DiffusionTalker,一种通过个性化引导蒸馏实现高效紧凑的语音驱动3D交谈头的方法。该方法显著提高了动画生成的速度和精确度,模型存储需求减少至86.4%,效果超过现有技术,具有广泛应用前景。
VividTalker是一个新的框架,用于辅助以语音驱动的3D面部动画。它通过将面部动画分解为头部姿势和口腔运动,并将其编码为离散潜在空间,然后使用基于窗口的Transformer架构生成这些特征。VividTalker在生动逼真的以语音驱动的3D面部动画方面胜过了现有的方法。
完成下面两步后,将自动完成登录并继续当前操作。