将 Transformer 模型作为图到图模型

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

该文介绍了一种基于图到图的 Transformer 模型架构,将图的边作为输入用于注意力权重计算,并使用类似于注意力的函数预测图中的边,从而将显式图集成到预训练的 Transformer 模型中学习出的潜在图中。

🎯

关键要点

  • 该文介绍了一种基于图到图的 Transformer 模型架构。

  • 模型将图的边作为输入用于注意力权重计算。

  • 使用类似于注意力的函数预测图中的边。

  • 显式图被集成到预训练的 Transformer 模型中学习出的潜在图中。

  • 添加迭代的图优化过程提供了输入、输出和潜在图的联合嵌入。

  • 非自回归图预测能够优化完整图,无需专门的流水线或解码策略。

  • 实证结果表明,该架构在建模各种语言结构方面取得了最先进的准确性。

➡️

继续阅读