本研究提出Sassha,一种新型的二阶优化方法,旨在提升泛化能力。Sassha通过降低解的尖锐性和稳定海森矩阵的近似计算,表现优于其他方法。
本研究提出了一种高效的二阶优化方法,针对联邦学习中的模型不确定性和个性化需求,显著提升了预测精度和不确定性估计,优于现有技术。
本研究探讨了二阶优化在深度学习中的泛化问题,首次展示高斯-牛顿更新在深度可逆架构中的应用,发现其在小批量训练下易导致过拟合,影响模型的泛化能力。
该研究提出了一种名为Newton Sketch的随机化二阶优化方法,可用于近似牛顿步。该算法证明具有超线性收敛和指数高概率,与条件数和相关问题独立的收敛和复杂度保证。该方法可应用于多种问题,如线性程序、带凸约束的二次程序、逻辑回归和其他广义线性模型以及半定规划的扩展问题。
完成下面两步后,将自动完成登录并继续当前操作。