基于自注意力的自适应变形网络用于图像增强
💡
原文中文,约600字,阅读约需2分钟。
📝
内容提要
本文提出了一个名为S2R的双赢框架,包括一个轻量级的基于transformer的SR模型和一种新颖的自上而下的训练策略,可以在理想和随机模糊条件下实现出色的视觉结果。S2R transformer巧妙地组合了一些高效且轻量级的块,以增强提取特征的表示能力,并且具有相对较少的参数。实验结果表明,S2R在理想的SR条件下仅使用578K参数就优于其他单图像SR模型。同时,在盲模糊条件下,它可以实现比常规盲SR模型更好的视觉效果,仅使用10次渐变更新就提高了收敛速度300倍,显著加速了在现实世界情况下的迁移学习过程。
🎯
关键要点
-
基于深度学习的方法在理想的超分辨率(SR)数据集上表现出色,但在随机模糊条件下性能下降。
-
提出了盲SR方法以改善随机模糊核造成的视觉结果。
-
S2R框架包括轻量级的基于transformer的SR模型和自上而下的训练策略。
-
S2R transformer通过组合高效轻量级块增强特征提取能力,参数较少。
-
训练策略包括粗粒度学习和快速微调过程,以提高网络的泛化能力和迁移学习效率。
-
实验结果显示,S2R在理想SR条件下仅用578K参数优于其他单图像SR模型。
-
在盲模糊条件下,S2R实现了比常规盲SR模型更好的视觉效果,收敛速度提高300倍。
➡️