通过拉普拉斯近似减少元学习中回归任务的方差
💡
原文中文,约300字,阅读约需1分钟。
📝
内容提要
本文提出了一种理论框架,将任务相似性与在线凸优化和序列预测算法结合,提升元学习的实用性。该方法自适应学习任务相似性,优化动态任务环境中的算法性能,并改善少样本学习和联邦学习的表现。
🎯
关键要点
- 提出了一种理论框架,结合任务相似性与在线凸优化和序列预测算法。
- 该方法自适应学习任务相似性,优化动态任务环境中的算法性能。
- 为统计学习-to-learn的转移风险提供更加精确的界限。
- 在任务环境动态变化或任务共享几何结构的情况下,导出高效算法的平均情况后悔界限。
- 使用该理论修改了几种流行的元学习算法,改善了少样本学习和联邦学习的表现。
➡️