利用 Fenchel-Young 损失和改进的替代遗憾实现的在线结构化预测与在线多类别分类与逻辑损失
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
最近的研究发现,在线学习算法应用于在线到批次转换可以获得高概率风险界限,改善了估计器在各种问题参数上的表现。顺序算法具有计算上的优势。
🎯
关键要点
-
在线学习方法在最小假设下产生顺序遗憾界限。
-
遗憾界限在统计背景下可能无法保证高概率风险界限。
-
研究通过在线学习算法的在线到批次转换获得高概率风险界限。
-
对定义遗憾的损失函数进行二阶校正以获得最优风险界限。
-
研究涉及经典统计估计问题,如离散分布估计、线性回归等。
-
在线学习算法的不恰当性使得在各种问题参数上显著改善了依赖。
-
顺序算法在计算上具有优势,相较于现有批处理算法。
➡️