本研究提出了高效解耦合框架EDTalk,用于言语生成。该框架能够分解面部动态,对嘴型、头部姿势和情绪表达进行个别操作,并根据视频或音频输入进行条件设置。实验证明了EDTalk的有效性。
完成下面两步后,将自动完成登录并继续当前操作。