S2R: 探索一种双赢的基于 Transformer 的理想和盲超分辨率框架
💡
原文中文,约700字,阅读约需2分钟。
📝
内容提要
本文提出了一个双赢框架S2R,用于理想和盲SR任务。该框架包括一个轻量级的基于transformer的SR模型和一种自上而下的训练策略。实验结果表明,S2R在理想SR条件下优于其他模型,并在盲模糊条件下提高了收敛速度300倍。
🎯
关键要点
-
提出了一个双赢框架S2R,用于理想和盲SR任务。
-
S2R框架包括一个轻量级的基于transformer的SR模型和一种自上而下的训练策略。
-
大多数深度学习方法在具有不可预测模糊核的现实SR重建任务中性能显著降低。
-
盲SR方法旨在改善随机模糊核造成的视觉结果。
-
S2R transformer通过组合高效且轻量级的块增强特征提取能力,参数相对较少。
-
训练策略包括粗粒度学习和快速微调过程,提升网络的泛化能力。
-
实验结果显示,S2R在理想SR条件下仅使用578K参数优于其他模型。
-
在盲模糊条件下,S2R实现更好的视觉效果,收敛速度提高300倍。
➡️