Manish Raghavan在MIT研究算法决策与人工智能,致力于解决社会问题。他探讨AI在招聘中的应用,强调历史偏见的影响,并希望通过AI提高对歧视的可见性。此外,他研究社交媒体算法对用户的影响,倡导设计更健康的平台。Raghavan认为AI能帮助我们更好地理解人类社会。
本研究探讨了用户对算法决策公平性的看法,并提出了理解公平性的框架。通过对576人的调查,发现人们对不公平问题的关注多维且复杂,未来研究应关注超出歧视的公平问题,并指出了解决判断分歧的可能途径。
本研究探讨算法决策导致的数据分布变化,并提出新视角进行建模。通过理解转变算子,开发了高效的梯度估计方法,提升了学习策略的效率和可扩展性。研究表明,准确模型部署时分类难度增加,并与对抗性强健分类相关。
本文研究了存在战略个体行为的情况下的算法决策,使用机器学习模型对人类个体进行决策,并考虑最大化决策者福利、社会福利和个体福利的目标。研究结果表明,在非线性设置中平衡各方福利是必要的,并提出了一种适用于一般战略学习的优化算法。
公平机器学习早期专注于确保算法决策公平,但现有的公平定义有限。更倾向于根据准确的风险估计对类似风险的人进行相似处理,需要大量努力构建适当的风险估计。
本文研究算法决策在社会不平等下的影响,发现可能会错误地排除高成本候选群体,接受低成本候选群体。给予补贴的干预效果可能只提高算法决策者的效用,但损害所有候选群体的利益。
公平机器学习关注算法决策的公平性,但现有的三个公平定义存在统计局限性。相比之下,更倾向于根据风险估计对类似风险的人进行相似处理,不一定要满足公平数学定义,需要大量努力构建适当风险估计。
完成下面两步后,将自动完成登录并继续当前操作。