具备辅助集的公平少样本学习
原文中文,约300字,阅读约需1分钟。发表于: 。最近,发展能够促进公平性的机器学习(ML)模型引起了广泛关注,即消除对特定群体(例如来自特定人口统计群体的个人)的偏见预测。本文定义了具有有限训练样本的公平感知学习任务,即 “公平少样本学习” 问题,并提出了一种新颖的框架,通过在不同的元训练任务中积累公平感知知识,然后将这些学到的知识推广到元测试任务中。此外,我们在三个真实世界数据集上进行了大量实验证明我们的框架相对于现有基线算法具有卓越的优势。
本文提出了一种新的基于风险差的算法,通过创建因果贝叶斯知识图,发现了机器学习模型中的偏见,并量化了每个受保护变量在图中的歧视影响力。同时,还提出了一种快速适应的偏差控制方法,有效减少了元学习中组的不公平性。通过实验验证了该方法可以高效地检测偏见,并减轻模型输出上的偏见,同时在训练样本量少的未见任务上具有较好的精度和公平度的泛化能力。