非平稳数据下再生核希尔伯特空间在线正则化统计学习的收敛条件

💡 原文中文,约300字,阅读约需1分钟。
📝

内容提要

本文介绍了一种在线学习算法,通过正则化路径的顺序随机逼近,收敛于再生核希尔伯特空间中的回归函数。算法选择增益或步长序列,实现了最佳已知强收敛速率和最优水平的弱收敛速率。通过偏差-方差分解,证明了偏差包括逼近误差和漂移误差,方差来自样本误差。

🎯

关键要点

  • 本文介绍了一种在线学习算法,收敛于再生核希尔伯特空间中的回归函数。
  • 算法通过选择增益或步长序列,实现最佳已知强收敛速率。
  • 算法还给出了弱收敛速率,达到了文献中最优水平。
  • 利用Hilbert空间中的鞍点型不等式,推导出几乎肯定的收敛。
  • 通过偏差-方差分解,证明偏差包括逼近误差和漂移误差。
  • 方差来自样本误差,分析为反向鞍点型差分序列。
  • 速率通过偏差和方差之间的最佳折衷得到。
🏷️

标签

➡️

继续阅读