循环线性变换
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
该研究使用Transformer模型架构,将自我关注机制应用于图像生成序列建模问题,通过限制自我关注机制只关注局部邻域,提高了模型处理大图像的能力。在图像生成和超分辨率方面,该模型优于当前最优模型,提高了ImageNet上最佳公布的负对数似然。人类评估表明,该超分辨率模型生成的图像比先前的最优模型更能欺骗人类观察者。
🎯
关键要点
- 研究使用Transformer模型架构,应用自我关注机制于图像生成序列建模问题。
- 通过限制自我关注机制只关注局部邻域,提高了模型处理大图像的能力。
- 该模型在图像生成和超分辨率方面优于当前最优模型。
- 模型在ImageNet上最佳公布的负对数似然从3.83提高到3.77。
- 人类评估表明,该超分辨率模型生成的图像更能欺骗人类观察者。
🏷️
标签
➡️