将 Transformer 模型作为图到图模型
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
该文介绍了一种基于图到图的 Transformer 模型架构,将图的边作为输入用于注意力权重计算,并使用类似于注意力的函数预测图中的边,从而将显式图集成到预训练的 Transformer 模型中学习出的潜在图中。
🎯
关键要点
-
该文介绍了一种基于图到图的 Transformer 模型架构。
-
模型将图的边作为输入用于注意力权重计算。
-
使用类似于注意力的函数预测图中的边。
-
显式图被集成到预训练的 Transformer 模型中学习出的潜在图中。
-
添加迭代的图优化过程提供了输入、输出和潜在图的联合嵌入。
-
非自回归图预测能够优化完整图,无需专门的流水线或解码策略。
-
实证结果表明,该架构在建模各种语言结构方面取得了最先进的准确性。
🏷️
标签
➡️