本研究提出匹配人口平衡 (MDP) 方法,解决群体公平性测量中的隐含属性问题,量化不同保护群体的预测差异,并通过“通过匹配实现公平性”(FTM)算法成功训练公平模型。
本文探讨了公平聚类问题,提出了多种算法以确保数据聚类中的公平性,允许个体属于多个保护群体。研究涵盖了比例质心聚类、f-散度测量和群组代表性等概念,并提供了有效的近似算法和实验验证,强调了群体公平性与个人公平性之间的关系。
本文探讨了机器学习分类器在决策过程中的公平性问题,强调随机分类器集合的潜在好处,如保证公平性和改善准确性-公平性权衡。研究分析了不同算法在群体公平性上的表现差异,并提出了“正和公平”概念,以促进医疗人工智能中的公平性应用。
该研究提出了一种新的联邦学习算法,解决群体公平性问题。该算法在统计异质性和不同数量的客户端存在的情况下,可以改善公平性,不影响准确度,并与本地差分隐私兼容,通信成本微不足道。该算法对敏感应用领域的联邦学习系统具有重要潜力。
本文研究了差分隐私与个体公平性和群体公平性的相互作用。作者关注输出扰动机制,导出了对扰动模型相对于原始模型可以实现的个体和群体公平性水平的高概率界限。输出扰动对个体公平性的影响是有界的,但随着模型维度增长而增加。群体公平性受角余量分布的影响。
本文研究了节点分类任务,探讨了群体公平性与局部同配性之间的联系,发现同质性会导致同配性,影响个人进入共享敏感属性的社区。通过合成图研究了本地同质性和公平预测之间的相互作用,发现并非所有节点邻域在这方面都是平等的。研究表明采用能够处理非同配组标签的异质性 GNN 设计可以提高局部异质性邻域的群体公平性高达25%,优于同质性设计。
联邦学习可能对群体公平性产生不利影响,偏见通过网络传播给参与方。与集中式训练相比,联邦学习中的偏见更严重,呼吁审计群体公平性并设计对偏见传播具有强韧性的学习算法。
完成下面两步后,将自动完成登录并继续当前操作。