快速简约文本-图转换器是有效的链接预测器

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

Transformer模型是图到图的模型,通过注意力权重计算和类似于注意力的函数预测图中的边,将显式图集成到预训练的Transformer模型中学习出的潜在图中。该架构在语言结构建模方面准确性最先进。

🎯

关键要点

  • Transformer模型本质上是图到图的模型,序列是特殊情况。
  • 注意力权重等价于图中的边。
  • 图到图Transformer架构通过图的边作为输入进行注意力权重计算。
  • 使用类似于注意力的函数预测图中的边,将显式图集成到预训练的Transformer模型中。
  • 添加迭代的图优化过程提供输入、输出和潜在图的联合嵌入。
  • 非自回归图预测能够优化完整图,无需专门的流水线或解码策略。
  • 实证结果表明该架构在语言结构建模方面取得了最先进的准确性。
➡️

继续阅读