通过对抗学习实现预测过程分析中的公平性(扩展版)
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
数据收集中的历史性歧视影响弱势群体。研究主要关注模型预测中的歧视,而对数据偏见的追踪较少。本文提出识别训练数据偏见样本的方法,并设计策略在不损失预测效用的情况下减轻不公平。实验验证了方法的有效性。
🎯
关键要点
- 数据收集中的历史性歧视影响弱势群体和个体。
- 现有的公平机器学习研究主要关注模型预测中的歧视,较少关注数据中的偏见。
- 本文提出识别训练数据中偏见样本的方法。
- 基于公平性概念,提出样本偏见准则和实用算法。
- 得出的偏见分数提供了历史偏见在数据中的样本级归因。
- 设计了两种公平机器学习策略,能够在最小或零的预测效用损失下减轻不公平。
- 大量实验验证了方法在解释和减轻不公平方面的有效性。
➡️