本文解决了变分不等式学习中的快速泛化速率问题,填补了强凸性与变分不等式之间的知识空白。作者提出了一种新方法,证明在强单调性条件下可实现快速泛化速率,研究结果对特定条件的变分不等式具有重要意义。
在在线学习中,优化随机零阶反馈下的凸函数一直是一个主要而具有挑战性的问题。本文考虑了仅能对目标函数进行噪声评估的情况下,对二阶平滑和强凸函数进行优化的问题;通过提出匹配的上下界,第一次对最小化最大简单后悔的速率进行了紧密的刻画。我们提出了一种算法,结合了启动阶段和镜像下降阶段。我们的主要技术创新包括对高阶平滑性条件下球形采样梯度估计器的尖锐刻画,从而使算法能够在偏差 -...
我们提出了一种新颖的白盒方法来进行超参数优化,通过最小化损失函数的强凸性来改善其平坦性,并利用神经网络的结构推导出近似求解强凸参数的闭式方程。通过随机搜索最小化超参数配置,我们在14个分类数据集上的实验中展示了我们的方法在运行时间的一小部分下取得了强大的性能。
完成下面两步后,将自动完成登录并继续当前操作。