开发者常将公平视为数学问题,但公平是普遍的还是文化的?在尼日利亚,公平意味着考虑不同现实。许多AI系统采用西方的公平观,未能理解当地文化,导致不公正结果。开发者应反思模型中的价值观,确保系统适应不同文化,而非仅依赖数据集。真正的公平应从全球南方出发。
作者在博客中分享了与开放知识基金会合作的项目经历,负责改进开放数据编辑器的前端,旨在帮助非技术用户探索和检测数据错误。项目使用了Figma、ReactJS和Python等技术,团队成员主要来自全球南方,成果令人满意。作者遗憾上传了不好的自拍,但强调了项目的重要性。
本研究探讨了人工智能中的知识不公正,提出了一种分类法,强调AI系统在全球南方国家的应用可能导致非西方知识体系的隐形化,为识别和理解AI领域的知识不公正提供了新视角。
本研究探讨了内容审核系统在低资源语言中的不足,尤其是在全球南方国家。通过访谈22名AI研究人员,发现数据访问限制加剧了这些语言的边缘化,现有技术无法准确处理其复杂性,导致审核错误。研究揭示了审核中的不平等,并提出了改进建议。
本研究探讨了人工智能音乐生成中全球南方音乐流派的缺失,指出数据集主要集中于全球北方音乐,威胁音乐多样性,并提出了促进更具包容性的AI音乐生成的关键步骤。
数据标注是机器学习和人工智能的基础。研究强调评分者多样性对模型公平性的重要性,并关注标注者的工作条件和心理影响。文章回顾了数据标注的历史,质疑实验结果的普适性,指出心理学过于依赖WEIRD国家的参与者,而许多标注者来自全球南方。非WEIRD标注者被迫接受WEIRD国家的社会分类,这可能固化过时的分类。文章提出框架以理解全球社会条件与标注工作的互动。
完成下面两步后,将自动完成登录并继续当前操作。