小红花·文摘
  • 首页
  • 广场
  • 排行榜🏆
  • 直播
  • FAQ
Dify.AI
ProText:用于测量长文本中性别化和误性别化的基准数据集

ProText是一个用于测量长文本中性别化和误性别化的数据集,涵盖主题名词、主题类别和代词类别。该数据集旨在通过先进的语言模型探讨文本转换中的性别偏见和刻板印象,研究发现模型在缺乏明确性别线索时倾向于默认异性恋假设,揭示了系统性性别偏见。

ProText:用于测量长文本中性别化和误性别化的基准数据集

Apple Machine Learning Research
Apple Machine Learning Research · 2026-03-31T00:00:00Z
从第一位程序员到 AI 时代的领航者:代码世界里的“她”力量

文章探讨了女性在计算机科学历史中的重要角色,强调她们在编程领域的贡献。尽管早期编程被视为女性工作,但随着行业发展,女性比例逐渐下降。提到Ada Lovelace和Grace Hopper等女性先驱在技术革命中的关键作用,并指出在AI时代,女性的沟通能力和多元视角将更为重要,呼吁打破性别偏见,重视女性在科技领域的地位。

从第一位程序员到 AI 时代的领航者:代码世界里的“她”力量

Tony Bai
Tony Bai · 2026-03-07T23:59:18Z
提示后的偏见:大型语言模型中的持续歧视

研究表明,大型语言模型(LLMs)在提示适应过程中存在偏见转移现象。尽管有多种去偏策略,但未能有效减少偏见传播。性别、年龄和宗教等偏见在不同任务和人群中高度相关,表明纠正模型中的偏见有助于防止其在后续任务中的传播。

提示后的偏见:大型语言模型中的持续歧视

Apple Machine Learning Research
Apple Machine Learning Research · 2025-10-25T00:00:00Z

本研究提出了一种“首先定位然后微调”(LFTF)算法,旨在减轻大型语言模型中的性别偏见。该算法通过BMI评分对相关部分进行排序,优先微调偏见最严重的部分,实验结果表明该方法有效。

Locate First, Then Fine-Tune: Mitigating Gender Bias in Large Language Models

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-21T00:00:00Z

本研究探讨了语言模型中的性别偏见及其对跨性别和性别多样身份的影响,呼吁重新审视“性别偏见”的定义。通过实证测试16种语言模型,发现它们主要将性别视为与生物性别相关的二元类别,强化了性别与生物性别的关联,导致对性别的狭隘理解。

Gender Trouble in Language Models: An Empirical Audit Based on Gender Performativity Theory

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-20T00:00:00Z

本研究提出了一种领域对抗训练方法,旨在解决语音心理健康检测中的性别偏见问题,显著提升抑郁症和PTSD的检测性能,E-DAIC数据集F1分数提高最多13.29个百分点。

Application of Domain-Adversarial Training for Mitigating Gender Bias in Speech-Based Mental Health Detection

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-05-06T00:00:00Z
为什么科技领域女性如此稀缺?

文章探讨了科技领域女性稀缺的原因,指出性别偏见和缺乏榜样使女性不敢进入该行业。男性在职业选择中也面临社会偏见和期望。多样性不仅是慈善,更是提升团队创造力和产品包容性的明智决策。

为什么科技领域女性如此稀缺?

DEV Community
DEV Community · 2025-05-03T21:01:44Z
雅娜·R·戈德曼 - 女性是首批程序员 | 女权主义科技历史

雅娜·R·戈德曼是一位女权主义作家和程序员,强调女性在计算机编程历史中的重要性。她指出,女性早在硅谷之前就已参与解决复杂逻辑问题。她提倡包容性工作环境,关注招聘和薪酬中的性别偏见,并致力于为女性提供指导渠道,鼓励女孩们认同自己作为编程的继承者。

雅娜·R·戈德曼 - 女性是首批程序员 | 女权主义科技历史

DEV Community
DEV Community · 2025-05-02T19:32:07Z

本研究提出了FairTranslate数据集,以评估机器翻译中的性别偏见,特别关注非二元性别。通过2418对英法句子,揭示了主流语言模型在性别代表性方面的偏差,强调了确保翻译系统公平与包容性的必要性。

FairTranslate: An English-French Dataset for Evaluating Gender Bias in Machine Translation by Overcoming Gender Binarity

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-22T00:00:00Z

本研究探讨大型语言模型的性别偏见表现,发现其能够中等程度推测性别,但仍受刻板印象影响,需加强偏见缓解策略。

Analysis of Gender Bias and Stereotypes in Large Language Models: Based on Online Shopping Data

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-02T00:00:00Z

本研究使用FAIRE基准测试大型语言模型在AI招聘中对简历的种族和性别偏见,结果显示所有模型均存在偏见,强调了减少偏见的紧迫性。

FAIRE: Assessing Racial and Gender Bias in AI-Driven Resume Evaluation

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-04-02T00:00:00Z
AWS 一周综述:Omdia 认可、Amazon Bedrock RAG 评估、国际妇女节活动等(2025 年 3 月 24 日)

在深圳的“科技女性”聚会上,百余位女性讨论人工智能伦理,关注性别偏见和数据多样性。参与者使用Amazon Bedrock生成视频,促进女性在AI领域的参与,推动无性别偏见的技术发展。

AWS 一周综述:Omdia 认可、Amazon Bedrock RAG 评估、国际妇女节活动等(2025 年 3 月 24 日)

亚马逊AWS官方博客
亚马逊AWS官方博客 · 2025-03-25T08:56:13Z

本研究提出了一种新框架,评估大型语言模型中的性别偏见,特别关注职业叙事。研究发现女性角色在职业中被过度代表,生成的性别排名与人类刻板印象一致,强调需采取措施确保公平性。

From Structured Prompts to Open Narratives: Measuring Gender Bias in Large Language Models Through Open-Ended Storytelling

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-20T00:00:00Z

本研究分析了预训练语言模型中的性别偏见,揭示了不同模型在性别编码上的一致性,并指出常见去偏见技术效果有限,甚至可能加剧偏见,为改善偏见缓解策略提供了指导。

预训练语言模型表示中的性别编码模式

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-03-09T00:00:00Z
过去的回声 - 科技仍然不平等

本文分享了作者作为性别少数群体在科技行业的经历,强调在当今社会中继续发声的重要性。作者提到在工作和演讲中遭遇的性别偏见,呼吁关注这些问题,并鼓励他人不要感到孤单。

过去的回声 - 科技仍然不平等

DEV Community
DEV Community · 2025-03-07T10:00:22Z

本研究探讨了推荐系统中的性别偏见,提出了一套量化指标,并强调评估公平性的重要性。研究表明,加入类别意识公平性指标可以有效减少模型偏见,同时保持推荐性能。

Unmasking Gender Bias in Recommendation Systems and Enhancing Category-Aware Fairness

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-25T00:00:00Z

本研究探讨自动翻译系统中的性别偏见,强调性别中立翻译的重要性,以促进性别包容性和提升翻译系统的客观性。通过分析英语到意大利语的翻译,评估模型对性别偏见的认知,为开发性别中立的翻译算法提供启示。

Identifying Gender Stereotypes and Bias in Automatic Translation from English to Italian

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-17T00:00:00Z

本研究提出DR.GAP方法,旨在减轻大型语言模型中的性别偏见。该方法通过示例选择和结构化推理,自动降低偏见,同时保持模型性能。实验结果表明,DR.GAP在多个模型上有效,并可推广至视觉语言模型,显著减少偏见。

DR.GAP: Mitigating Bias in Large Language Models through Gender-Aware Prompting with Demonstration and Reasoning

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-17T00:00:00Z

本研究提出FaIRMaker框架,旨在解决大型语言模型中的性别偏见问题。该框架通过自动生成和优化Fairwords,减少性别偏见并提高响应质量,适用于多种模型。

自动搜索与优化:一种针对大型语言模型性别偏见缓解的自动化框架

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-17T00:00:00Z

本研究针对统一多模态大型语言模型在图像生成中的性别和种族偏见,提出了“定位-修复”策略来审计偏见,发现偏见主要源于语言模型,并引入平衡偏好模型以减少偏见。强调了对U-MLLMs的全面解读和去偏见策略的重要性。

统一多模态大型语言模型在图像生成中的公平性

BriefGPT - AI 论文速递
BriefGPT - AI 论文速递 · 2025-02-05T00:00:00Z
  • <<
  • <
  • 1 (current)
  • 2
  • 3
  • >
  • >>
👤 个人中心
在公众号发送验证码完成验证
登录验证
在本设备完成一次验证即可继续使用

完成下面两步后,将自动完成登录并继续当前操作。

1 关注公众号
小红花技术领袖公众号二维码
小红花技术领袖
如果当前 App 无法识别二维码,请在微信搜索并关注该公众号
2 发送验证码
在公众号对话中发送下面 4 位验证码
小红花技术领袖俱乐部
小红花·文摘:汇聚分发优质内容
小红花技术领袖俱乐部
Copyright © 2021-
粤ICP备2022094092号-1
公众号 小红花技术领袖俱乐部公众号二维码
视频号 小红花技术领袖俱乐部视频号二维码