本研究提出了一种新方法,将矩阵元方法(MEM)的对称性与等变神经网络结合,显著提升了区分四个底夸克的双希格斯衰变与QCD背景的能力,为超越标准模型的物理研究提供了更强的工具。
本文探讨了等变神经网络的设计与应用,强调了对称性在神经网络中的重要性。通过引入对称性,提出了构建置换等变神经网络的框架,并分析了其在多层和卷积神经网络中的表现。研究表明,等变网络在处理对称数据时表现优越,为不变神经网络的代数学习理论奠定了基础。
研究发现,尽管已知的问题对称被纳入神经网络中,但实际学习等变神经网络的复杂度呈指数级增长。通过梯度下降学习等变神经网络仍然是困难的。
神经网络是一种函数近似方法,等变神经网络是学习对称性不变或等变函数的框架。研究者探索了分段线性表示论在等变神经网络中的作用,发现将网络层分解成简单表示仍然有好处。他们还证明了分段线性等变映射的存在受控于正规子群。研究结果表明,在等变神经网络中,信息从低频流向高频,这对网络的复杂性和学习低频函数有影响。该研究对理解和解读等变神经网络提供了有用的工具。
研究发现,尽管已知的问题对称被纳入神经网络中,但实际学习等变神经网络的复杂度呈指数级增长,因此通过梯度下降学习等变神经网络仍然是困难的。
本文研究了通过梯度下降学习等变神经网络的问题,发现实际学习非对称网络的复杂度呈指数级增长,因此仍然是困难的。
本文研究了潜在表示中等变模型对归纳偏好的影响,并通过两个例子展示了这些原则的作用。作者还证明了等变神经网络中记录的现象在标准神经网络中也存在。
尽管已知的问题对称被纳入神经网络中,但学习等变神经网络仍然困难。研究发现,实际学习浅层全连接网络的复杂度呈指数级增长。
该研究介绍了一种基于三维结构的等变神经网络EquiReact,用于化学反应推理。研究发现,EquiReact在活化能预测方面表现出竞争性能,具有更好的外推能力和预测误差,同时减少了对几何质量的敏感性,具有出色的数据效率。
完成下面两步后,将自动完成登录并继续当前操作。