重新思考人工智能与人类协作的公平性
原文中文,约2200字,阅读约需6分钟。发表于: 。现有的算法公平性方法旨在确保人类决策者与算法决策完全一致,然而,在人工智能与人类协作中,与算法的完全一致很少实现或者甚至是不可取的。我们提出了 “合规性鲁棒公平算法推荐”...
该文提出了“合规性鲁棒公平算法推荐”的概念,旨在改善人工智能与人类协作的公平性,无论人类的合规模式如何。然而,同时具备独立公平性、合规性鲁棒公平性和比人类决策更准确的算法推荐可能是不可行的。因此,如果目标是改善人工智能与人类协作的公平性和准确性,可能不应强制执行传统的公平性约束。