概率重连的消息传递神经网络

原文约400字,阅读约需1分钟。发表于:

利用最近在精确和可微分的 k 子集采样中的进展,我们设计了一种概率重连的消息传递图神经网络(PR-MPNNs),该网络学习在省略不太有益的边的同时添加相关边。首次,我们的理论分析探索了 PR-MPNNs 如何增强表达能力,并且我们确定了它们优于纯随机方法的精确条件。经验证实,我们的方法有效地缓解了如过度压缩和预测能力不足等问题。此外,根据现有的真实世界数据集,我们的方法在预测性能上与传统的 MPNN 模型和最近的图变压器架构相比表现出有竞争力或更好的性能。

该文介绍了一种概率重连的消息传递图神经网络(PR-MPNNs),能够有效地缓解过度压缩和预测能力不足等问题,并在预测性能上与传统的 MPNN 模型和最近的图变压器架构相比表现出有竞争力或更好的性能。

相关推荐 去reddit讨论