《纽约时报》关于Zohran Mamdani的哥伦比亚大学申请的报道引发了对种族科学渗透主流政治话语的担忧。该报道来源于一名支持优生学的学者,且在准确性上存在偏见。种族与智力的关联已成为右派的共识,影响政策讨论。民主党在2024年选举后试图通过“丰盈”理念吸引选民,但可能与种族科学支持者产生联系。
本研究探讨了美国再犯风险评估工具在个体公平性应用中的不足,强调应考虑年龄和性别因素,而忽略种族因素,以确保评估工具的公平性。
本研究探讨姓名、种族和性别对社会等级的影响,发现大型语言模型加剧了基于姓名的地位差异,尤其在不同种族和性别的互动中表现出复杂的偏见。研究强调了对种族、性别及混合身份的深入理解。
该研究关注如何理解和减轻大型语言模型(LLMs)在高风险决策中的偏见问题。通过引入招生和招聘决策任务,研究发现现有模型表现出明显的种族偏见,且多种提示策略无法消除这些偏见。研究还提出了一种新的方法,通过识别模型激活中的“种族子空间”来干预决策,结果表明这一方法能够显著减少偏见,虽然种族表征的普遍性仍面临挑战。
本研究解决了美国公立学校中普遍存在的种族/民族隔离问题,探讨了通过小学合并这种政策改变,来促进更为融合的学习环境。研究发现,在200个大规模学区中实施学校合并能将种族/民族隔离减少20%,某些地区的减少幅度可达近60%,同时增加的通勤时间仅为几分钟。
本文提出了一种新框架,将种族视为低层特征的高级抽象,明确建模其因果角色,并清晰界定歧视条件。研究表明,该框架有效解决了歧视建模的争议,同时保持因果关系的准确性。
本研究分析了澳大利亚和美国重症监护室中种族和族裔的健康不平等,发现少数族裔患者尽管入院时健康状况较差,但生存率较高,这与他们获取初级医疗服务不良有关。
本研究探讨如何通过内容和来源线索(特别是种族、民族和国籍)影响对AI生成内容的判断,尤其是在大学申请这一高风险自我展示环境中。研究发现,内容启发式(如语言风格)在AI检测中占主导地位,而国际学生更容易被认为使用了AI,尤其是当其陈述包含AI特征时。这一研究揭示了种族刻板印象与AI检测之间的关系,影响了个人陈述的质量感知及申请者的综合评价。
随着匿名性和陌生人陪伴的增加,越来越多人在数字世界寻求心理健康支持。研究表明,GPT-4生成的回应在同情心和鼓励积极行为方面优于人类,但对不同种族的回应存在偏见。研究者建议通过明确指示来减轻这种偏见,以确保临床环境中的心理健康支持公平性。
最新研究表明,大型语言模型(LLM)在焦虑状态下的回答更具偏见,尤其在种族和性别问题上。部分模型在焦虑评估中得分与人类相似,且通过强化学习与人类反馈(RLHF)可以降低焦虑水平。这项研究为改进AI系统提供了新思路。
本研究探讨了视觉语言模型(VLMs)在情感、种族、性别和年龄识别中的应用,结果显示其识别准确性优于传统方法,并展示了新模型的多任务处理能力。
本研究分析了在线新闻中不同种族和性别群体的表现频率及背景,发现这些群体代表性不足且常被边缘化,揭示了新闻报道中的种族和性别偏见。
mbedtls 是一个开源 TLS 库,支持 PSA 密码 API,适用于嵌入式系统。deepface 是轻量级人脸识别库,支持多种模型。sql-mother 是免费的 SQL 自学网站,提供在线练习。devicescript 为物联网设备提供 TypeScript 支持。orillusion 是基于 WebGPU 的 3D 渲染引擎。
模型编辑用于更新语言模型知识,但可能增加偏见。研究引入Seesaw-CF数据集,发现编辑后模型在种族、地理和性别内容上偏见更强,尤其是长文本生成时。编辑出生地、公民国籍或性别的事实,可能负面影响模型对职业特征的理解。
本文讨论了种族、年龄和性别等因素的交叉偏见问题,并提出了性能差异的种族、年龄和性别组合方面的研究。研究结果表明,人脸识别系统存在普遍偏见,不同的人口统计因素导致不同的结果。
研究发现,在医学影像中使用人工智能进行自动化任务时,模型选择会导致算法偏见,特别是在心脏磁共振图像分割中。三种基于卷积神经网络的模型和一种视觉变换器模型都存在性别和种族偏见。这表明在医学影像任务中,模型选择对公平的AI分割模型训练非常重要。
由于深度图像生成技术的成功发展,伪造检测在社会和经济安全中扮演更重要的角色。本文中,我们首次贡献了一个专门的数据集 —— 公平伪造检测(FairFD)数据集,证明了公共最先进方法的种族偏见。与现有的伪造检测数据集不同,自构建的 FairFD...
现在广泛使用基于大量音频数据训练的自动语音识别(ASR)模型将语音转换为书面文本,在视频字幕到医疗保健等各个领域中使用自动助手。本研究旨在通过研究当前最先进的基于神经网络的 ASR 系统(Whisper,OpenAI)在 CORAAL 数据集上的性能来了解康托语方言对 ASR 准确性的影响,并发现了方言差异和录音质量对 ASR 准确性的重要性。这些发现凸显了在研究神经 ASR...
大型语言模型在医疗应用中存在偏见,倾向于为白人群体投射更高的费用和较长的住院时间,并在高生存率的医疗场景中表现乐观。未来研究需要解决和减轻语言模型的偏见问题,确保公平和准确的结果。
研究发现人脸识别系统对某些民族存在偏见,因为数据缺乏代表性。研究使用合成人脸图像改变种族和肤色,增加数据多样性。通过详细分析适应性和评估肤色表示,为未来研究工作铺平道路,包括开发改变模型、扩展方法创建多样肤色数据库和代表各种民族的数据集。
完成下面两步后,将自动完成登录并继续当前操作。