通过 MLPs 揭示图学习的潜在潜力:利用传播式 MLPs 的有效图学习器
原文中文,约200字,阅读约需1分钟。发表于: 。通过知识蒸馏从图神经网络导师中训练学生多层感知机,将 KD 过程重新构建为使学生模型在知识蒸馏中显式学习结构信息,并提出了一个有效的方法 Propagate & Distill (P&D),通过真实世界基准数据集的综合评估表明了 P&D 的有效性和对学生模型性能的进一步提升。
该研究提出了一种通过知识蒸馏训练学生模型的方法,介绍了一种有效的方法Propagate & Distill(P&D),实验证明P&D能够提高学生模型的性能。