AnyGraph:图基础模型在实际应用中的发展
原文中文,约300字,阅读约需1分钟。发表于: 。本研究旨在解决现有图学习模型在提取可泛化见解时面临的结构和特征异质性问题。提出的AnyGraph模型利用图混合专家架构,有效实现快速适应新领域的数据,同时展示出其在分布迁移上的强大性能及扩展性。实验结果表明,AnyGraph在38个多样图数据集上展现了出色的零样本学习能力,具备广泛应用潜力。
该文章介绍了UniGraph框架,通过使用文本属性图(TAGs)训练图基础模型,实现对未见过的图和任务在不同领域中的泛化能力。该方法采用了级联的语言模型(LMs)和图神经网络(GNNs)构建的骨干网络以及基于掩码图建模(MGM)的自我监督训练目标,并引入大型语言模型(LLMs)进行图指令调优,使模型能够进行零样本预测。实验证明该模型在未见过的图的自我监督表示学习、少样本上下文转移和零样本转移方面有效,甚至超越或匹配了在目标数据集上进行受监督训练的GNNs的性能。