DiffusionTalker:基于语音驱动的 3D 脸部扩散器的个性化与加速
原文中文,约300字,阅读约需1分钟。发表于: 。利用对比学习进行个性化三维面部动画生成和知识蒸馏以加速动画生成的扩散式方法 DiffusionTalker 优于现有方法。
VividTalker是一个新的框架,用于辅助以语音驱动的3D面部动画。它通过将面部动画分解为头部姿势和口腔运动,并将其编码为离散潜在空间,然后使用基于窗口的Transformer架构生成这些特征。VividTalker在生动逼真的以语音驱动的3D面部动画方面胜过了现有的方法。