DiffusionTalker:基于语音驱动的 3D 脸部扩散器的个性化与加速
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
VividTalker是一个新的框架,用于辅助以语音驱动的3D面部动画。它通过将面部动画分解为头部姿势和口腔运动,并将其编码为离散潜在空间,然后使用基于窗口的Transformer架构生成这些特征。VividTalker在生动逼真的以语音驱动的3D面部动画方面胜过了现有的方法。
🎯
关键要点
- VividTalker是一个新框架,旨在辅助以语音驱动的3D面部动画。
- 该框架将面部动画分解为头部姿势和口腔运动,并编码为离散潜在空间。
- VividTalker使用基于窗口的Transformer架构生成这些特征。
- 通过与语音内容一致的新3D数据集,构建了具有详细形状的面部细节合成并学习。
- 广泛的实验表明,VividTalker在生动逼真的以语音驱动的3D面部动画方面胜过现有方法。
🏷️
标签
➡️