提出了一种端到端网络用于示例视频着色,保持参考风格并实现时间一致性。通过循环框架减少误差,并通过时间一致性损失增强效果。实验表明,该方法在定量和定性上优于现有技术,生成视频稳定逼真。
该论文提出了一种循环框架,用于联合无监督学习的深度表示和图像聚类。该模型通过在CNN输出的表示层上堆叠聚类算法的连续操作的循环过程,在前向传递中进行图像聚类,在后向传递中进行表示学习。该方法在各种图像数据集的图像聚类中表现优于现有技术,并且学习到的表示在转移到其他任务时具有很好的通用性。
该文介绍了首个端到端网络,用于基于示例的视频着色,并保持参考风格的时间一致性。通过循环框架统一语义对应和颜色传递步骤,利用参考图像来引导每一帧的着色,减少传播误差,并通过时间一致性损失强制协同着色历史。实验结果表明,该方法在定量和定性方面优于现有技术,生成稳定且逼真的视频。
完成下面两步后,将自动完成登录并继续当前操作。