MMHead:迈向细粒度多模态3D面部动画
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
语音合成3D面部动画引起关注。通过三位一体方法,首先引入广义神经参数面部特征(GNPFA)从视频中提取表情和头部姿势。然后提出Media2Face扩散模型,在GNPFA空间中生成与音频、文本和图像相关的面部动画。实验表明,该模型在动画合成上具有高保真度,并增强了表现力和风格适应性。
🎯
关键要点
- 语音合成3D面部动画引起极大关注。
- 采用三位一体的方法应对面部动画合成挑战。
- 引入广义神经参数面部特征(GNPFA)提取表情和头部姿势。
- 提出Media2Face扩散模型生成与音频、文本和图像相关的面部动画。
- 实验表明模型在动画合成上具有高保真度。
- 模型增强了3D面部动画的表现力和风格适应性。
🏷️
标签
➡️