本研究批判性审视了图机器学习中的常见信念,如过度平滑、过度挤压、同质性与异质性二元论及长范围任务。通过反例,旨在澄清这些误解,促进深入讨论。
本研究提出了一种参数化方法,用于控制Transformer模型的频谱,避免过度平滑输入,提高表达能力。该方法在更多层次、更少数据点和受损数据的训练情况下仍然有效。
本研究从拓扑学角度理解深度图神经网络中的过度平滑和过度挤压问题,并提出了基于Ricci曲率边界的SJLR算法,以减轻这两个问题的影响并更好地理解它们。
完成下面两步后,将自动完成登录并继续当前操作。