EmoTalker: 通过扩散模型生成情感可编辑的说话脸部

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

本研究提出了一种新的语音驱动面部生成方法,能够通过输入语音、面部图像和情感标签来呈现表情。该系统在图像质量、音视频同步和视觉情感表达方面表现出色,经过主观和客观评估证明了其优越性。人类情感识别实验结果显示,在音频和视觉模态不匹配的情况下,人们对视觉模态的响应更为显著。

🎯

关键要点

  • 本研究提出了一种新的语音驱动面部生成方法。
  • 该系统能够通过输入语音、面部图像和情感标签来呈现表情。
  • 系统在图像质量、音视频同步和视觉情感表达方面表现出色。
  • 主观和客观评估证明了该系统的优越性。
  • 人类情感识别实验显示,在音频和视觉模态不匹配时,视觉模态的响应更为显著。
➡️

继续阅读