基于图信息瓶颈的自解释时变图网络
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文研究了自解释的动态图神经网络(GNNs),旨在预测未来的链接并提供因果解释。通过整合独立和混淆因果模型(ICCM),解决了捕捉基础结构和时间信息的挑战,并生成高质量链接预测结果和解释。实验证明,该模型在准确性、解释质量和鲁棒性上优于现有方法。
🎯
关键要点
- 本文研究自解释的动态图神经网络(GNNs),旨在预测未来链接并提供因果解释。
- 提出独立和混淆因果模型(ICCM),解决捕捉基础结构和时间信息的挑战。
- 整合深度学习结构,考虑效果和效率,生成高质量链接预测结果和解释。
- 实验证明模型在链接预测准确性、解释质量和鲁棒性上优于现有方法。
- 代码和数据集已匿名发布。
🏷️
标签
➡️