通过多目标优化提高对多重虚假相关性的鲁棒性
本文介绍了一种基于多任务学习的偏见缓解方法,通过利用Monte-Carlo dropout和Pareto优势的概念,在不使用敏感信息的情况下同时优化准确性和公平性。该方法在三个数据集上测试,展示了在模型公平性和性能之间的最理想权衡。提供了机器学习中偏见缓解方法的可推广性解决方案。
原文中文,约500字,阅读约需1分钟。
本文介绍了一种基于多任务学习的偏见缓解方法,通过利用Monte-Carlo dropout和Pareto优势的概念,在不使用敏感信息的情况下同时优化准确性和公平性。该方法在三个数据集上测试,展示了在模型公平性和性能之间的最理想权衡。提供了机器学习中偏见缓解方法的可推广性解决方案。