SES: 连接解释性与图神经网络预测的差距
原文中文,约400字,阅读约需1分钟。发表于: 。我们提出了一个自我解释和自我监督的图神经网络(SES),通过可解释训练和增强的预测学习来弥合解释性和预测之间的差距。SES 利用全局掩码生成器与图编码器联合训练,直接产生关键的结构和特征掩码,提供结点特征和子图解释,从而降低计算时间,并通过对比学习构建基于掩码的正负样本对来增强结点表示。
本文介绍了一种名为Prototype Graph Neural Network(ProtGNN)的新型网络结构,它将原型学习与图神经网络相结合,为GNN的解释提供了新的视角。ProtGNN通过比较输入与学习的原型来获得预测结果,并增加了条件子图抽样模块来提高解释和效率。实验证明,ProtGNN能够提供可解释性和准确性。