具备反馈延迟的平滑在线凸优化的鲁棒学习
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
该研究提出了一种名为Robustness-Constrained Learning(RCL)的机器学习增强在线算法,通过受限投影将不受信任的ML预测与可信的专家在线算法结合起来,以增强ML预测的鲁棒性。研究以电动交通的电池管理为案例,展示了RCL在鲁棒性和平均性能方面的改进。
🎯
关键要点
- 研究提出了一种名为Robustness-Constrained Learning(RCL)的机器学习增强在线算法。
- RCL通过受限投影将不受信任的ML预测与可信的专家在线算法结合,以增强鲁棒性。
- RCL能够保证对于任何给定的专家具有(1+λ)的竞争力,其中λ>0。
- RCL明确训练ML模型以提高平均性能,同时具备鲁棒性感知的方式。
- RCL是第一个在多步切换成本和反馈延迟情况下具有可证明的鲁棒性保证的ML增强算法。
- 研究以电动交通的电池管理为案例,展示了RCL在鲁棒性和平均性能方面的改进。
➡️