单图像生成说话人动漫的改进模型及其蒸馏
原文中文,约300字,阅读约需1分钟。发表于: 。我们研究了使用单一动漫角色图像实时控制角色模型的问题,并通过提出新的构成网络架构和技术改进现有系统,使其在保持图像质量的同时,能够在实时应用中生成高质量动画帧。
本研究提出了一种新颖的3D感知说话人视频动作迁移网络Head3D,通过生成可视化可解释的3D标准头部,从2D主体帧中充分利用主体外貌信息,以适应驱动视频帧对齐。实验结果表明Head3D在实际的跨身份设置中优于2D和3D先前方法。
我们研究了使用单一动漫角色图像实时控制角色模型的问题,并通过提出新的构成网络架构和技术改进现有系统,使其在保持图像质量的同时,能够在实时应用中生成高质量动画帧。
本研究提出了一种新颖的3D感知说话人视频动作迁移网络Head3D,通过生成可视化可解释的3D标准头部,从2D主体帧中充分利用主体外貌信息,以适应驱动视频帧对齐。实验结果表明Head3D在实际的跨身份设置中优于2D和3D先前方法。