位置编码的局部性与对称性
原文中文,约300字,阅读约需1分钟。发表于: 。位置编码(PEs)用于将单词顺序信息注入基于 Transformer 的语言模型中。本研究对双向遮蔽语言模型(BERT-style)中的位置编码进行了系统研究,揭示了其核心功能和与下游任务性能相关的两个常见特性(局部性和对称性),并对当前位置编码的弱点进行了定量评估。这些结果可为开发基于 Transformer 的语言模型的更好位置编码提供基础。
本文研究了基于解码器的Transformer模型在使用不同位置编码方式时对长度泛化的影响。发现NoPE表现更优秀,无需额外计算,能代表绝对和相对位置嵌入。但在使用SGD训练时,主要呈现T5相对位置嵌入的注意力模式。同时,scratchpad并不总是有助于解决长度泛化问题,其格式对模型性能有很大影响。表明解码器-only的Transformer不一定需要显式的位置嵌入以在更长的序列上泛化良好。