可扩展且一致的图神经网络用于分布式基于网格的数据驱动建模
原文中文,约400字,阅读约需1分钟。发表于: 。本研究解决了分布式网格建模中的一致性和可扩展性问题,提出了一种利用一致神经消息传递层的分布式图神经网络(GNN)方法。通过与高性能计算工具NekRS的结合,证明该方法在数十亿节点上保持了高效的可扩展性,推动了数据驱动建模工作流的发展。
研究提出了一种基于领域分解的分布式训练方法,用于消息传递神经网络 (MPNN),解决无线边缘网络的扩展问题。结合 Nyström 近似采样技术,开发了可扩展的图神经网络 DS-MPNN,支持 O(10^5) 节点。通过 Darcy 流数据集和二维翼型稳态 RANS 模拟验证,DS-MPNN 在准确性上与单 GPU 实现相当,并支持更多节点,优于基于节点的 GCN。