视频超分辨率中扩散模型的学习空间适应性和时间连贯性
💡
原文中文,约500字,阅读约需2分钟。
📝
内容提要
本文提出了一种新的方法SATeCo,用于视频超分辨率的空间适应和时间一致性,通过学习低分辨率视频的空间-时间指导,实现高分辨率视频去噪和像素级视频重建的校准。实验证明该方法有效。
🎯
关键要点
- 提出了一种新颖的方法SATeCo,用于视频超分辨率的空间适应和时间一致性。
- 通过学习低分辨率视频的空间-时间指导,实现高分辨率视频去噪和像素级视频重建的校准。
- 在预先训练的UNet和VAE中,优化了空间特征适应(SFA)和时间特征对齐(TFA)模块。
- SFA模块调节帧特征,自适应估计每个像素的仿射参数,确保高分辨率帧合成的像素级指导。
- TFA模块通过自注意力机制分析3D局部窗口内的特征交互,并执行交叉注意力以指导时间特征对齐。
- 在REDS4和Vid4数据集上进行的实验验证了该方法的有效性。
➡️