循环线性变换

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

该研究使用Transformer模型架构,将自我关注机制应用于图像生成序列建模问题,通过限制自我关注机制只关注局部邻域,提高了模型处理大图像的能力。在图像生成和超分辨率方面,该模型优于当前最优模型,提高了ImageNet上最佳公布的负对数似然。人类评估表明,该超分辨率模型生成的图像比先前的最优模型更能欺骗人类观察者。

🎯

关键要点

  • 研究使用Transformer模型架构,应用自我关注机制于图像生成序列建模问题。
  • 通过限制自我关注机制只关注局部邻域,提高了模型处理大图像的能力。
  • 该模型在图像生成和超分辨率方面优于当前最优模型。
  • 模型在ImageNet上最佳公布的负对数似然从3.83提高到3.77。
  • 人类评估表明,该超分辨率模型生成的图像更能欺骗人类观察者。
➡️

继续阅读