S2R: 探索一种双赢的基于 Transformer 的理想和盲超分辨率框架

💡 原文中文,约700字,阅读约需2分钟。
📝

内容提要

本文提出了一个双赢框架S2R,用于理想和盲SR任务。该框架包括一个轻量级的基于transformer的SR模型和一种自上而下的训练策略。实验结果表明,S2R在理想SR条件下优于其他模型,并在盲模糊条件下提高了收敛速度300倍。

🎯

关键要点

  • 提出了一个双赢框架S2R,用于理想和盲SR任务。

  • S2R框架包括一个轻量级的基于transformer的SR模型和一种自上而下的训练策略。

  • 大多数深度学习方法在具有不可预测模糊核的现实SR重建任务中性能显著降低。

  • 盲SR方法旨在改善随机模糊核造成的视觉结果。

  • S2R transformer通过组合高效且轻量级的块增强特征提取能力,参数相对较少。

  • 训练策略包括粗粒度学习和快速微调过程,提升网络的泛化能力。

  • 实验结果显示,S2R在理想SR条件下仅使用578K参数优于其他模型。

  • 在盲模糊条件下,S2R实现更好的视觉效果,收敛速度提高300倍。

➡️

继续阅读