本研究使用FAIRE基准测试大型语言模型在AI招聘中对简历的种族和性别偏见,结果显示所有模型均存在偏见,强调了减少偏见的紧迫性。
本研究探讨了大型语言模型的种族偏见及其减轻策略,发现模型剪枝能有效降低偏见,但在不同上下文中的泛化能力有限,对人工智能法律框架有深远影响。
本研究针对统一多模态大型语言模型在图像生成中的性别和种族偏见,提出了“定位-修复”策略来审计偏见,发现偏见主要源于语言模型,并引入平衡偏好模型以减少偏见。强调了对U-MLLMs的全面解读和去偏见策略的重要性。
西北大学的研究表明,法官在保释决定中并未完全依赖算法,而是根据个人因素选择性使用。虽然算法旨在评估被告风险,但可能加剧种族偏见。法官通常在短时间内做出决定,更多依赖自身声誉和道德判断,而非算法的可靠性。这表明算法未必能减少人为偏见,反而可能合法化这些偏见。
本研究分析了大型语言模型(LLMs)在旅行规划中对性别和种族的偏见,发现其在不同群体的处理上存在明显差异,强调了评估推荐准确性的重要性。
我们推出了KinRace数据集,结合亲属关系和种族信息。通过多任务学习和注意力模块提升准确性,并用公平感知对比损失和对抗学习减少种族偏见。实验结果显示KFC方法在标准差和准确性上表现优异。
研究发现深度学习模型在面部情绪识别中存在种族偏见问题。通过对多样种族分布的训练集进行子采样,发现在接近种族平衡的模拟中,公正性和性能指标得到了提高。然而,在具有更多面部变化的较大数据集中,公正性指标通常保持不变。
研究发现四种大型语言模型在预测中存在性别和种族偏见,仅仅利用人口统计学提示可能无法消除这种影响。
研究发现深度学习模型在面部情绪识别中存在种族偏见问题。通过对多样种族分布的训练集进行子采样,可以提高公正性和性能指标。然而,在具有更多面部变化的较大数据集中,种族平衡无法实现测试性能的平等。
本文研究了医学影像中使用人工智能进行自动化任务时,模型选择对主体性别和种族的数据不平衡导致的算法偏见的影响。通过评估四种模型,发现其中三种存在显著性别偏见,所有模型都存在种族偏见。这表明医学影像任务中模型选择对公平的AI分割模型训练非常重要。
完成下面两步后,将自动完成登录并继续当前操作。