大规模非凸随机约束分布鲁棒优化
原文中文,约300字,阅读约需1分钟。发表于: 。该论文主要研究了分布鲁棒优化(Distributionally Robust Optimization,DRO)中的约束问题,针对非凸损失函数提出了一种随机算法并进行了性能分析,证明了该算法能够找到一个满足 ε- 稳定点,而且计算复杂度为 O (ε^(-3k_*-5)),此外,数值结果表明该方法优于现有方法。
使用分布稳健优化(DRO)问题中的谱风险不确定性集和 $f$- 散度惩罚构建了一个包括常见风险敏感学习目标的模型。提出了 Prospect 算法,证明其对平滑正则化损失具有线性收敛性。在实证上,展示了 Prospect 算法在分布偏移和公平性基准上的收敛速度比随机梯度和随机鞍点方法快 2-3 倍。