循环线性变换

BriefGPT - AI 论文速递 BriefGPT - AI 论文速递 ·

该研究使用Transformer模型架构,将自我关注机制应用于图像生成序列建模问题,通过限制自我关注机制只关注局部邻域,提高了模型处理大图像的能力。在图像生成和超分辨率方面,该模型优于当前最优模型,提高了ImageNet上最佳公布的负对数似然。人类评估表明,该超分辨率模型生成的图像比先前的最优模型更能欺骗人类观察者。

原文中文,约300字,阅读约需1分钟。
阅读原文