MMHead:迈向细粒度多模态3D面部动画

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

语音合成3D面部动画引起关注。通过三位一体方法,首先引入广义神经参数面部特征(GNPFA)从视频中提取表情和头部姿势。然后提出Media2Face扩散模型,在GNPFA空间中生成与音频、文本和图像相关的面部动画。实验表明,该模型在动画合成上具有高保真度,并增强了表现力和风格适应性。

🎯

关键要点

  • 语音合成3D面部动画引起极大关注。
  • 采用三位一体的方法应对面部动画合成挑战。
  • 引入广义神经参数面部特征(GNPFA)提取表情和头部姿势。
  • 提出Media2Face扩散模型生成与音频、文本和图像相关的面部动画。
  • 实验表明模型在动画合成上具有高保真度。
  • 模型增强了3D面部动画的表现力和风格适应性。
➡️

继续阅读