ZeroG是一个新框架,将零样本迁移学习应用于图领域,实现数据集间的泛化。它通过语言模型编码节点属性和类别语义,确保特征维度一致,并使用提示的子图采样模块丰富信息。轻量级微调策略降低过拟合风险,保持零样本学习能力。ZeroG在跨数据集零样本迁移中表现优异,尤其在Pubmed数据集上效果接近半监督学习。
通过ZeroG框架扩展了零样本迁移学习到图领域,解决了特征不对齐、标签空间不匹配和负迁移等挑战。使用语言模型编码节点属性和类别语义,确保数据集间的一致特征维度。通过子图采样模块丰富子图的语义和结构信息,采用轻量级微调策略降低过拟合风险。结果显示ZeroG在跨数据集零样本迁移方面非常有效,为图基础模型的发展开辟了新的路径。在Pubmed上实现了与半监督学习相媲美的结果。
使用对抗式对比学习提出了一种用于多个图领域的预训练模型,性能优于基准模型、未经训练的模型和非转移模型,包括在评估时使用节点标签。
完成下面两步后,将自动完成登录并继续当前操作。