该文章介绍了一种基于Transformer编码器的方法,用于实现人脸再现任务。该方法能够将视频中的头部运动和面部表情转移到源图像的外观上,适用于不同的人。作者通过自监督学习源人物的潜在表示,将外观、头部角度和面部表情分解,实现跨再现。该方法能够自然地扩展到多个源图像,并适应个人特定的面部动态。作者还提出了数据增强和正则化方案,防止过拟合并提高学习表示的泛化能力。实验结果表明,该方法在运动传输质量和时间一致性方面具有卓越性能。
本文介绍了一种新型的自我监督混合模型(DAE-GAN),结合了形变自编码器和条件生成的最新进展。该模型能够在大量未标记视频的情况下自然地再现人脸,并在 VoxCeleb1 和 RaFD 数据集上取得了优秀的实验结果。
完成下面两步后,将自动完成登录并继续当前操作。