ColorMNet:基于记忆的深度时空特征传播网络用于视频上色

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

介绍了ColorMNet视频着色方法,利用内存特征传播模块、预训练视觉模型和局部注意力模块提取视频帧特征,在基准数据集和真实场景中表现出优异效果。

🎯

关键要点

  • ColorMNet视频着色方法利用内存特征传播模块、预训练视觉模型和局部注意力模块。
  • 内存特征传播模块能够与相隔较远的帧特征建立连接,减轻不准确估计的影响。
  • 使用大型预训练视觉模型指导每个帧的特征估计,以模拟复杂场景。
  • 局部注意力模块聚合相邻帧的特征,利用空间和时序特征。
  • ColorMNet是一个端到端可训练的网络,在基准数据集和真实场景中表现优异。
  • 源代码和预训练模型可在GitHub上获得。
➡️

继续阅读