本研究探讨了矢量值线性预测器的学习问题,重点关注凸和Lipschitz损失函数,描述了样本复杂度,并揭示了随机凸优化与矢量值线性预测之间的关系,具有重要的理论和实践意义。
本研究提出了一种新方法,利用自适应漂移参数的奥恩斯坦-乌伦贝克过程,解决神经网络在非平稳分布下的学习问题。实验结果表明,该方法在监督学习和离线强化学习中表现优异。
本文介绍了一种新的分析框架,用于分析基于一阶优化算法的统计学习中的泛化误差。该分析适用于多个学习问题,并提供了接近配对的上下界的泛化误差。结果适用于平滑和强凸优化问题,以及满足Polyak-Lojasiewicz假设的平滑非凸优化问题。最后,研究证明,在标准监督学习的情况下,批梯度下降法可以通过增加批次大小和热启动来达到近似最优的泛化误差。
本文研究了带有动作切换代价的敌对多臂赌博机问题,证明了玩家T回合的最小极大后悔度为Θ(T^2/3),并提出了一个多尺度随机游走的新随机化结构,可能对困难的学习问题有帮助。
本研究将残差神经网络推广至广义黎曼流形,提供了一种解决具有层次结构或流形值数据的学习问题的方法。实验结果表明,该方法表现更好。
完成下面两步后,将自动完成登录并继续当前操作。