图神经网络输出几乎肯定是渐近常数

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

图神经网络(GNN)是用于各种图学习任务的主要架构。研究发现,GNN 概率分类器在从随机图模型中抽取的较大图上应用时,预测会收敛为常函数,限制了分类器的表达能力。这种收敛现象适用于广泛类别的 GNN,包括最先进模型。实证验证结果显示,即使在较小的图上,收敛现象也已经显现。

🎯

关键要点

  • 图神经网络(GNN)是主要的图学习架构。
  • 研究GNN概率分类器在随机图模型中的应用,揭示了其表达能力的新视角。
  • 发现输出收敛为常函数,限制了分类器的表达能力。
  • 这种收敛现象适用于广泛类别的GNN,包括最先进模型。
  • 研究涵盖了多种随机图模型,如Erdős-Rényi模型和随机块模型。
  • 实证验证显示,即使在较小的图上,收敛现象也已显现。
➡️

继续阅读