GraphFM:一种可扩展的多图预训练框架

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

多图多任务预训练方法(GraphFM)通过将特定领域的特征压缩到一个共同的潜空间,并在不同领域的数据上进行扩展,提高了通用模型的泛化能力。该方法通过对152个不同图数据集进行预训练,并根据跨多个领域的数据构建扩展规律,证明了在真实和合成图上进行多图预训练可以减轻当前图训练方法的负担,创建一种能在广泛数据集和任务中竞争的单一通用模型。

🎯

关键要点

  • 多图多任务预训练方法(GraphFM)通过特征压缩提高模型泛化能力。
  • 该方法在152个不同图数据集上进行预训练。
  • GraphFM根据跨多个领域的数据构建扩展规律。
  • 多图预训练能减轻当前图训练方法的负担。
  • 创建了一种能在广泛数据集和任务中竞争的单一通用模型。
➡️

继续阅读