该论文提出了一种即时的、逼真的风格迁移方法,无需预训练或额外约束。通过使用轻量级的StyleNet,实现了从风格图像到内容图像的风格迁移。实验结果表明,该方法需要更少的GPU内存使用,提供更快的多帧迁移速度,并生成逼真的输出。
完成下面两步后,将自动完成登录并继续当前操作。