非 I.I.D 数据下被审查回归模型的渐进有效的在线学习
原文中文,约300字,阅读约需1分钟。发表于: 。研究了随机截尾回归模型的渐近高效的在线学习问题,提出了一个两步在线算法,第一步实现算法收敛,第二步致力于提高估计性能,结果表明算法是强一致和渐近正常的,并且估计的协方差在渐近上可以达到 Cramer-Rao(C-R)界限,这表明所提出的算法的性能是可以期望的最优的。
本文介绍了一种在线学习算法,通过正则化路径的顺序随机逼近,收敛于再生核希尔伯特空间中的回归函数。通过选择增益或步长序列,可以生产出批量学习的最佳已知强收敛速率,并给出了弱收敛速率。通过偏差-方差分解,证明偏差包括逼近误差和漂移误差,方差来自样本误差,分析为反向鞍点型差分序列。