循环线性变换
原文中文,约300字,阅读约需1分钟。发表于: 。通过引入循环替代方案以解决 transformer 自注意机制中的两个局限,本文提出了一种能够以较低成本进行推理并有效利用长程依赖的 transformer 自注意机制替代方法,在强化学习问题中实现了性能的提升。
该研究使用Transformer模型架构,将自我关注机制应用于图像生成序列建模问题,通过限制自我关注机制只关注局部邻域,提高了模型处理大图像的能力。在图像生成和超分辨率方面,该模型优于当前最优模型,提高了ImageNet上最佳公布的负对数似然。人类评估表明,该超分辨率模型生成的图像比先前的最优模型更能欺骗人类观察者。