本文研究了随机梯度 Langevin 动力学(SGLD)算法,通过注入适当缩放的高斯噪声来更新参数,分析了算法达到参数空间任意子集的命中时间。研究发现,SGLD算法在多项式时间内实现了总体风险的近似局部最小值。同时,展示了SGLD如何改进学习零一损失下线性分类器的最佳学习结果之一。
该文介绍了一种集合技术,通过交叉验证数据生成预测并最小化总体风险的估计,以增强预测准确性。同时,使用至少三个维度分隔的嵌套子空间进行线性最小二乘投影时,堆叠估计量的总体风险严格小于其中最佳单个估计量,具备性能且易于实现。
完成下面两步后,将自动完成登录并继续当前操作。