SIG: 高效可自解释的连续时间动态图神经网络
原文中文,约400字,阅读约需1分钟。发表于: 。针对连续时间动态图(CTDGs)上的预测困难,本文研究了自解释的动态图神经网络(GNNs)。我们旨在在动态图中预测未来的链接并同时提供因果解释。通过提出独立和混淆因果模型(ICCM)并将其整合到同时考虑效果和效率的深度学习结构中,我们解决了捕捉基础结构和时间信息的不一致性和分布外数据的挑战,以及高质量链接预测结果和解释的高效生成。大量实验证明,我们的模型在链接预测准确性、解释质量和对快捷特征...
本文研究了自解释的动态图神经网络(GNNs),旨在预测未来的链接并提供因果解释。通过提出独立和混淆因果模型(ICCM)并整合到深度学习结构中,解决了捕捉基础结构和时间信息的挑战。实验证明,该模型在链接预测准确性、解释质量和对快捷特征的鲁棒性上优于现有方法。