神经网络的表现在训练时间、数据集大小和模型大小上预测性地提高,这一现象被称为神经缩放定律。研究表明,神经网络在训练早期以 $1/ extit {width}$ 的速度收敛到无限宽度动力学,但在后期表现为 $ extit {width}^{-c}$ 的速度,其中 $c$ 取决于架构和任务的结构。此外,理论上显示了由于数据的重复重用,训练和测试损失之间的差距可以随时间逐渐增大。
本文研究了神经缩放定律,发现更宽的网络具有更多“大乐透号码”,通过集成以减少输出的方差。通过对单个神经网络的机械解释和统计研究来支持集成机制。讨论了它对大型语言模型和学习的统计物理类型理论的潜在影响。
完成下面两步后,将自动完成登录并继续当前操作。