快速简约文本-图转换器是有效的链接预测器
原文中文,约300字,阅读约需1分钟。发表于: 。本研究针对链接预测模型的局限,提出了一种基于变压器的创新方法,有效整合文本描述与图结构,减少对资源密集型文本编码器的依赖。实验结果表明,快速简约文本-图转换器在多个挑战性数据集上优于现有的最佳方法,同时保持高效性和可扩展性。
Transformer模型是图到图的模型,通过注意力权重计算和类似于注意力的函数预测图中的边,将显式图集成到预训练的Transformer模型中学习出的潜在图中。该架构在语言结构建模方面准确性最先进。