随机模型预测控制中的在线约束加强:回归方法
原文中文,约300字,阅读约需1分钟。发表于: 。通过数据驱动的方法利用二元回归问题和高度表达的高斯过程模型提供了逼近约束紧缩参数以满足机会约束的最小约束紧缩参数,从而在数值实验中得到了比其他先进方法更低的平均成本。
该研究提出了一种增强训练算法稳健性和神经网络泛化能力的方法,通过引入定制化约束条件并将其整合到一个随机梯度 Langevin 模型中,进一步探索损失函数的空间。这些优化方式不需要适应神经网络体系结构设计选择或修改目标函数的正则化项,并且在分类任务中表现良好。