基于自注意力的自适应变形网络用于图像增强
原文中文,约600字,阅读约需2分钟。发表于: 。我们提出了一种新的基于降噪感知自注意的 Transformer 模型,将 CNN 和 Transformer 组件结合到超分辨网络中,实现了在盲超分辨率方面的最先进性能。
本文提出了一个名为S2R的双赢框架,包括一个轻量级的基于transformer的SR模型和一种新颖的自上而下的训练策略,可以在理想和随机模糊条件下实现出色的视觉结果。S2R transformer巧妙地组合了一些高效且轻量级的块,以增强提取特征的表示能力,并且具有相对较少的参数。实验结果表明,S2R在理想的SR条件下仅使用578K参数就优于其他单图像SR模型。同时,在盲模糊条件下,它可以实现比常规盲SR模型更好的视觉效果,仅使用10次渐变更新就提高了收敛速度300倍,显著加速了在现实世界情况下的迁移学习过程。