基于强凸性引导的超参数优化方法用于更平缓的损失函数

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

我们提出了一种新颖的白盒方法来进行超参数优化,通过最小化损失函数的强凸性来改善其平坦性,并利用神经网络的结构推导出近似求解强凸参数的闭式方程。通过随机搜索最小化超参数配置,我们在14个分类数据集上的实验中展示了我们的方法在运行时间的一小部分下取得了强大的性能。

🎯

关键要点

  • 提出了一种新颖的白盒方法进行超参数优化。

  • 通过最小化损失函数的强凸性来改善其平坦性。

  • 利用神经网络的结构推导出近似求解强凸参数的闭式方程。

  • 采用随机搜索来最小化超参数配置。

  • 在14个分类数据集上的实验中展示了方法的强大性能。

  • 方法在运行时间的一小部分下取得了显著效果。

➡️

继续阅读