ColorMNet:基于记忆的深度时空特征传播网络用于视频上色
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
介绍了ColorMNet视频着色方法,利用内存特征传播模块、预训练视觉模型和局部注意力模块提取视频帧特征,在基准数据集和真实场景中表现出优异效果。
🎯
关键要点
- ColorMNet视频着色方法利用内存特征传播模块、预训练视觉模型和局部注意力模块。
- 内存特征传播模块能够与相隔较远的帧特征建立连接,减轻不准确估计的影响。
- 使用大型预训练视觉模型指导每个帧的特征估计,以模拟复杂场景。
- 局部注意力模块聚合相邻帧的特征,利用空间和时序特征。
- ColorMNet是一个端到端可训练的网络,在基准数据集和真实场景中表现优异。
- 源代码和预训练模型可在GitHub上获得。
➡️