具备反馈延迟的平滑在线凸优化的鲁棒学习
原文中文,约400字,阅读约需1分钟。发表于: 。我们研究了一种具有多步非线性切换成本和反馈延迟的挑战性平滑在线凸优化(SOCO)形式,提出了一种新颖的机器学习(ML)增强的在线算法,名为 Robustness-Constrained Learning(RCL),它通过受限投影将不受信任的 ML 预测与可信的专家在线算法结合起来,以增强 ML 预测的鲁棒性。具体而言,我们证明了 RCL 能够对于任何给定的专家保证(1+λ)竞争力,其中...
该研究提出了一种名为Robustness-Constrained Learning(RCL)的机器学习增强在线算法,通过受限投影将不受信任的ML预测与可信的专家在线算法结合起来,以增强ML预测的鲁棒性。研究以电动交通的电池管理为案例,展示了RCL在鲁棒性和平均性能方面的改进。