图神经网络输出几乎肯定是渐近常数
原文中文,约400字,阅读约需1分钟。发表于: 。图神经网络(GNN)是用于各种图学习任务的主要架构。我们通过研究 GNN 概率分类器在从某个随机图模型中抽取的较大图上应用时的预测如何演变来呈现 GNN 表达能力的新视角。我们展示了输出收敛为常函数的现象,这个常函数上界了这些分类器能够统一表达的内容。这种收敛现象适用于包括最先进模型在内的广泛类别的...
图神经网络(GNN)是用于各种图学习任务的主要架构。研究发现,GNN 概率分类器在从随机图模型中抽取的较大图上应用时,预测会收敛为常函数,限制了分类器的表达能力。这种收敛现象适用于广泛类别的 GNN,包括最先进模型。实证验证结果显示,即使在较小的图上,收敛现象也已经显现。