近年来,人工智能系统的新应用数量大幅增长。其中一种算法决策系统(ADMs)通过人工智能代替人类专家的决策过程。为了确保系统的公平性和透明性,可解释人工智能(XAI)变得越来越重要。本文研究了surrogate模型的逼近效果,并发现即使被歧视的子群体在所有类别上与其他相同,也不会从黑盒ADM系统获得任何正面决策。这一发现对准确定位歧视问题的解决具有重要意义。
预训练语言模型在创新中至关重要,但引入和使用会带来偏见和歧视问题。该研究综述了减轻语言模型偏见的技术趋势和限制,包括度量指标、基准数据集和减轻策略。该调查探讨了被忽视的社会的视角,并提出了适应被忽视社会需求的解决方案。
本文提出了一种新方法来缓解基于变分自编码器的推荐系统中的歧视问题,通过限制种群信息的编码。该方法经过评估,可以为未在训练数据中表示的用户提供公平的推荐。
完成下面两步后,将自动完成登录并继续当前操作。