通过多目标优化提高对多重虚假相关性的鲁棒性
原文中文,约500字,阅读约需1分钟。发表于: 。本研究解决了在具备多重偏差数据集上训练无偏且准确模型的难题。我们提出了一种新颖的训练方法,通过对训练数据分组并动态调整组间损失权重,优化了不同组的实际表现,旨在减少偏差间的冲突。最终,这一方法在多个具有多重偏差的数据集上表现出最佳性能,展现了对传统单一偏差数据集的优越性。
本文介绍了一种基于多任务学习的偏见缓解方法,通过利用Monte-Carlo dropout和Pareto优势的概念,在不使用敏感信息的情况下同时优化准确性和公平性。该方法在三个数据集上测试,展示了在模型公平性和性能之间的最理想权衡。提供了机器学习中偏见缓解方法的可推广性解决方案。