机器学习中的程序公正

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

机器学习中的公平性问题引起了关注,研究主要关注模型的分配公平性,忽视了程序公平性。本文定义了机器学习模型的程序公平性,给出了个体和群体程序公平性的形式化定义,并提出了评估群体程序公平性的新指标。实验证明可以准确识别导致模型程序不公平的特征,并提出改善程序公平性的方法。

🎯

关键要点

  • 机器学习中的公平性问题受到广泛关注,现有研究主要集中在模型的分配公平性上。

  • 本文定义了机器学习模型的程序公平性,并给出了个体和群体程序公平性的形式化定义。

  • 提出了一种新的评估机器学习模型群体程序公平性的指标 $GPF_{FAE}$,该指标利用特征归因解释的人工智能技术。

  • 在合成数据集和八个真实数据集上验证了 $GPF_{FAE}$ 的有效性。

  • 实验结果揭示了模型程序公平性与分配公平性之间的关系。

  • 提出了一种识别导致模型程序不公平特征的方法,以及两种改善程序公平性的方法。

  • 实验证明可以准确识别导致模型程序不公平的特征,并且提出的方法在轻微影响模型性能的同时显著改善程序公平性和分配公平性。

➡️

继续阅读