视频超分辨率中扩散模型的学习空间适应性和时间连贯性

💡 原文中文,约500字,阅读约需2分钟。
📝

内容提要

本文提出了一种新的方法SATeCo,用于视频超分辨率的空间适应和时间一致性,通过学习低分辨率视频的空间-时间指导,实现高分辨率视频去噪和像素级视频重建的校准。实验证明该方法有效。

🎯

关键要点

  • 提出了一种新颖的方法SATeCo,用于视频超分辨率的空间适应和时间一致性。
  • 通过学习低分辨率视频的空间-时间指导,实现高分辨率视频去噪和像素级视频重建的校准。
  • 在预先训练的UNet和VAE中,优化了空间特征适应(SFA)和时间特征对齐(TFA)模块。
  • SFA模块调节帧特征,自适应估计每个像素的仿射参数,确保高分辨率帧合成的像素级指导。
  • TFA模块通过自注意力机制分析3D局部窗口内的特征交互,并执行交叉注意力以指导时间特征对齐。
  • 在REDS4和Vid4数据集上进行的实验验证了该方法的有效性。
➡️

继续阅读