该研究探讨了过度参数化和随机化机器学习算法对训练数据隐私的影响,并通过分析得出了模型分布间的隐私界限。研究发现,隐私界限很大程度上由训练过程中的模型参数相对于期望梯度范数决定。同时,隐私界限的提高或降低取决于所选的初始化分布。该研究还证明了在固定隐私预算下的过度经验风险界限,并展示了隐私效用权衡与深度之间的相互作用同样受到初始化方式的影响。
本文提出了一种对前馈 ReLU 网络的泛化误差进行 PAC 类型边界的方法,通过估计网络集合的 Rademacher 复杂度来解释过度参数化的模型能够在拟合训练数据的同时表现出良好的泛化能力。实验证实了该方法在 MNIST 和 CIFAR-10 数据集上的有效性。
本文研究了前馈神经网络的复杂性,发现通过利用排列不变性可以降低神经网络的复杂性,适当的随机参数初始化策略可以增加优化收敛的概率,过度参数化的网络更容易训练,但增加神经网络的宽度会导致有效参数空间体积的消失。这些发现对深度学习中的一般化和优化有重要的影响。
完成下面两步后,将自动完成登录并继续当前操作。