通过对抗学习实现预测过程分析中的公平性(扩展版)

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

数据收集中的历史性歧视影响弱势群体。研究主要关注模型预测中的歧视,而对数据偏见的追踪较少。本文提出识别训练数据偏见样本的方法,并设计策略在不损失预测效用的情况下减轻不公平。实验验证了方法的有效性。

🎯

关键要点

  • 数据收集中的历史性歧视影响弱势群体和个体。
  • 现有的公平机器学习研究主要关注模型预测中的歧视,较少关注数据中的偏见。
  • 本文提出识别训练数据中偏见样本的方法。
  • 基于公平性概念,提出样本偏见准则和实用算法。
  • 得出的偏见分数提供了历史偏见在数据中的样本级归因。
  • 设计了两种公平机器学习策略,能够在最小或零的预测效用损失下减轻不公平。
  • 大量实验验证了方法在解释和减轻不公平方面的有效性。
➡️

继续阅读