本研究探讨了维基数据知识表示中的社会偏见,特别是在链接预测任务中对少数群体的影响。提出的AuditLP框架利用公平性指标识别性别和年龄偏见,发现偏见结果与全球北方和南方的社会经济文化分区相关。
本研究提出了FairLoRA,一种通过最小化每类损失方差来缓解视觉模型中的偏见的方法。研究表明,缓解偏见的高秩并不普遍适用,需考虑预训练模型、数据集和任务等因素,并强调使用多种公平性指标进行全面评估的重要性。
本文介绍了一种新的公平异常检测方法Deep Fair SVDD,利用对抗网络解决深度学习中的社会偏见问题,并提出有效的公平性指标。实验结果表明,该方法在最小损失的情况下消除了不公平性,且相较于现有技术表现更优。研究强调了公平性在机器学习中的重要性,并提出了多种公平性算法和框架,以确保不同群体检测结果的一致性。
该文介绍了COLO-TRIDE框架,解决了模型崩溃和对抗性差的问题。实验证明该方法在鲁棒性和数据集上的表现优于当前最先进方法,平均水平提升了7%。同时提出了一种新的衡量图像检索鲁棒性的公平性指标,并将代码公开于GitHub。
完成下面两步后,将自动完成登录并继续当前操作。