FALE: 公平感知的 ALE 图用于审计亚群的偏见
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
本文讨论了机器学习模型的程序公平性问题,提出了评估群体程序公平性的新指标$GPF_{FAE}$,并通过实验证明了其有效性。同时,作者还提出了识别导致模型程序不公平的特征的方法和改善程序公平性的两种方法。
🎯
关键要点
-
机器学习中的公平性问题受到广泛关注,现有研究主要关注模型的分配公平性,忽视程序公平性。
-
本文定义了机器学习模型的程序公平性,并给出了个体和群体程序公平性的形式化定义。
-
提出了一种用于评估机器学习模型群体程序公平性的新指标 $GPF_{FAE}$,该指标利用特征归因解释的人工智能技术捕捉模型的决策过程。
-
在合成数据集和八个真实数据集上验证了 $GPF_{FAE}$ 的有效性,实验结果揭示模型程序公平性与分配公平性之间的关系。
-
提出了一种识别导致模型程序不公平的特征的方法,以及两种改善程序公平性的方法。
-
实验证明可以准确识别导致模型程序不公平的特征,提出的两种方法在轻微影响模型性能的同时,显著改善程序公平性和分配公平性。
🏷️
标签
➡️