本研究探讨了大型语言模型(LLMs)在图神经网络(GNNs)中优化节点表示的特性。通过合成图数据集和干预实验,揭示了LLM与GNN的内部机制,并设计了优化模块以提升信息传递,实验结果验证了其有效性,为图表示学习提供了新的视角。
本研究提出了CLDG框架,解决动态图无监督表示学习中的性能下降问题。通过引入实时持久信号,增强节点表示的一致性,实现时间平移不变性。实验结果表明,该方法在七个数据集上超越了八个最先进的基线,且训练时间和模型参数显著减少,证明了其有效性和高效性。
本研究提出了AdaRC框架,专注于解决图神经网络在测试阶段结构变化的问题。通过调整聚合参数和设计信息聚类损失,提升节点表示的质量和准确性。实验表明其在处理结构和属性变化时的有效性。
本研究提出了签名图原型自编码器(SGAAE),旨在解决现有图自编码器在签名网络中的可解释性不足问题。SGAAE通过将图投影到学习的多面体上,提取节点表示,有效推断节点隶属关系并识别竞争社区。实验结果表明,SGAAE在签名链路预测任务中表现优异,超越多种基线模型。
本文介绍了图对比学习(GCL)的多种新方法,包括无监督学习节点表示的框架、简单的图对比学习模型SimGRACE,以及基于结构和语义的S^3-CL。这些方法通过对比学习损失优化节点嵌入,提升了在多个基准测试中的表现,解决了虚假负样本问题,并提高了学习的鲁棒性和效率。
本文介绍了一种新型的超几何图卷积神经网络(HGCN),该网络通过超几何空间的特性学习节点表示,显著提升了链路预测和节点分类的性能。研究表明,HGCN在低维嵌入下优于传统欧几里得模型,并探讨了其在计算机视觉中的应用及未来研究方向。
本研究提出了一种基于机器学习的解决方案,通过学习节点表示和注意力机制来预测多智能体系统的未来状态。研究结果表明,该模型能有效识别网络拓扑,尤其是在动态模型未知的情况下。
图神经网络(GNN)通过传播和聚合的方式对图的结构信息进行编码。研究者提出了一种新的方法SF-GNN,通过评估节点表示的质量来解决深层GNN性能下降问题。实验证明,SF-GNN在节点分类和链接预测任务中优于现有方法。
研究人员提出了一种名为GCFormer的新型图形变压器模型,通过混合令牌生成器捕捉多样性图形信息,并使用基于变压器的骨干结构学习节点表示。GCFormer引入对比学习提高节点表示质量,在节点分类方面优于传统图神经网络和图形变压器。
本文介绍了一种增强图神经网络的新方法,通过动态编码方案提高节点表示的准确性和适应性。实验结果显示该方法在基准数据集上具有显著性能优势,展示了在实际图学习任务中的潜力。
本文介绍了一种利用超几何空间表达能力和嵌入高度曲率特点的归纳式超几何图卷积神经网络(HGCN),可以学习分层和无标度图的节点表示。实验证明,HGCN 学习到的嵌入保留了分层结构,且在链路预测和节点分类中性能表现更好,改善了 Pubmed 数据集的最新技术水平。
该文介绍了一种逐层规则化图信息最大化算法,通过自监督的方式进行端对端训练,解决了在大型图上训练图神经网络的存储和计算上的挑战。该算法能够学习节点表示,并避免了表示过度平滑的问题,同时提高了训练效率。作者在归纳大型图上评估了算法,证明了其性能和效率的优越性。
本文介绍了一种名为GraphCL的自我监督学习框架,用于学习节点表示。该框架通过最大化同一节点的本地子图的内在特征和连接结构的两个随机扰动版本的表示之间的相似性来学习节点嵌入,并使用对比学习损失来最大化它们之间的一致性。
本文介绍了第一个归纳式的超几何图卷积神经网络(HGCN),利用超几何空间的表达能力和嵌入高度曲率的特点来学习分层和无标度图的节点表示。实验证明,HGCN学习到的嵌入保留了分层结构,并且在链路预测和节点分类中表现更好。
完成下面两步后,将自动完成登录并继续当前操作。