多图多任务预训练方法(GraphFM)通过将特定领域的特征压缩到一个共同的潜空间,并在不同领域的数据上进行扩展,提高了通用模型的泛化能力。该方法通过对152个不同图数据集进行预训练,并根据跨多个领域的数据构建扩展规律,证明了在真实和合成图上进行多图预训练可以减轻当前图训练方法的负担,创建一种能在广泛数据集和任务中竞争的单一通用模型。
本文研究了特征压缩的亲测和亲特性之间的关系,分析了亲特性的磁盘度量的有效性,并揭示了亲磁度量和原始特征的可区分性之间存在着一种权衡关系。
完成下面两步后,将自动完成登录并继续当前操作。