以 Wasserstein 距离为指导的对抗性权重调整用于偏见缓解
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
公平机器学习算法旨在消除不同群体间的行为差异,但研究发现,在训练数据存在偏差的情况下,同等重视不同规模和分布的群体可能与鲁棒性相冲突。本文评估了多种算法和基准数据集的攻击,分析了公平机器学习的鲁棒性。
🎯
关键要点
- 公平机器学习算法旨在消除不同群体间的行为差异。
- 训练数据存在偏差时,重视不同规模和分布的群体可能与鲁棒性相冲突。
- 攻击者可以通过控制样本和标签来攻击群体公平性机器学习。
- 攻击会显著降低测试数据上的准确率。
- 本文评估了多种算法和基准数据集的攻击,分析了公平机器学习的鲁棒性。
➡️