本研究提出了一种新颖的神经网络架构MatrixNet,旨在解决机器学习中预定义对称群表示的问题。MatrixNet通过学习群元素的矩阵表示,提高了几何输入数据的样本效率和泛化能力。
本文探讨了对称群在物理学和机器学习中的应用,提出了多种方法来提取和评估神经网络的对称性。研究表明,对称性在不同结构中普遍存在,且学习质量受深度和参数影响。新算法加速了对称性发现,提升了模型的泛化性和鲁棒性,提出的对称克隆方法增强了机器学习模型的学习能力。
本研究提出了李代数标准化方法(LieLAC),解决了在偏微分方程求解器中实现等变性模型架构的难题。该方法利用对称群的无穷小生成元,避免依赖全群结构。实验表明,LieLAC在不变图像分类和等变神经偏微分方程求解中表现优异。
完成下面两步后,将自动完成登录并继续当前操作。