是否合并:对共享模型中群体公平训练的正则化效果分析
原文中文,约300字,阅读约需1分钟。发表于: 。公平机器学习中,性能差异的一个原因是对训练样本较少的群体过拟合。本文推导了福利为中心的公平机器学习的群体特定的泛化误差界,从而得益于多数群体较大的样本量。通过考虑一个受限假设类中的群体特定的 Rademacher 平均,该假设类包含了在公平学习目标(如 power-mean)方面表现良好的模型族。我们的模拟实验证明,这些界限相对于朴素方法有所改进,并且对于较小的群体大小改进尤为显著。
本文研究了公平机器学习中性能差异的原因,并推导了福利为中心的公平机器学习的群体特定的泛化误差界。模拟实验证明,这些界限相对于朴素方法有所改进,并且对于较小的群体大小改进尤为显著。