软升软降中的隐式正则化
原文中文,约400字,阅读约需1分钟。发表于: 。通过提出一种更加鲁棒的程序 SoftAD,该程序通过减少边界点和限制异常值的影响,保留升降效果,实现与 SAM 和 Flooding 竞争性分类准确度,同时保持更小的损失泛化差距和模型规范化。
本文介绍了一种名为SAM的训练方法,可以提高神经网络的泛化性能,特别是在存在标签噪声的情况下。SAM能防止在早期阶段噪声学习,从而促进更有效的特征学习。实验证实了理论。
通过提出一种更加鲁棒的程序 SoftAD,该程序通过减少边界点和限制异常值的影响,保留升降效果,实现与 SAM 和 Flooding 竞争性分类准确度,同时保持更小的损失泛化差距和模型规范化。
本文介绍了一种名为SAM的训练方法,可以提高神经网络的泛化性能,特别是在存在标签噪声的情况下。SAM能防止在早期阶段噪声学习,从而促进更有效的特征学习。实验证实了理论。