赋予预训练图模型可证明的公平性
💡
原文中文,约500字,阅读约需1分钟。
📝
内容提要
图神经网络(GNNs)在预测属性图中节点标签的关键人类应用中越来越常见。研究者提出了两种新的干预方法,通过减少受保护群体和非受保护群体之间的可分性以及基于黑盒策略更新模型预测来最小化人口群体之间的误差率差异。实验结果表明,这些干预方法提供了细粒度的控制,并在正确预测受保护群体节点的正向结果时提高了模型的置信度。
🎯
关键要点
- 图神经网络(GNNs)在预测属性图中节点标签的应用越来越普遍。
- GNNs 可能加剧数据中的偏见或引入新的偏见,需量化其偏见程度。
- 提出了两种新的干预方法:PFR-AX 和 PostProcess。
- 这两种方法通过减少受保护群体和非受保护群体之间的可分性来最小化误差率差异。
- 实验结果显示,PFR-AX 和 PostProcess 提供了细粒度的控制。
- 在正确预测受保护群体节点时,这些方法提高了模型的置信度。
- 没有单一干预能提供普遍最佳的权衡,但提出的方法在算法公平性和准确性上表现良好。
➡️