以 Wasserstein 距离为指导的对抗性权重调整用于偏见缓解

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

公平机器学习算法旨在消除不同群体间的行为差异,但研究发现,在训练数据存在偏差的情况下,同等重视不同规模和分布的群体可能与鲁棒性相冲突。本文评估了多种算法和基准数据集的攻击,分析了公平机器学习的鲁棒性。

🎯

关键要点

  • 公平机器学习算法旨在消除不同群体间的行为差异。
  • 训练数据存在偏差时,重视不同规模和分布的群体可能与鲁棒性相冲突。
  • 攻击者可以通过控制样本和标签来攻击群体公平性机器学习。
  • 攻击会显著降低测试数据上的准确率。
  • 本文评估了多种算法和基准数据集的攻击,分析了公平机器学习的鲁棒性。
➡️

继续阅读