临床决策支持中 LLMs 应用的偏倚模式:一项综合研究
原文中文,约400字,阅读约需1分钟。发表于: 。通过对八种流行的大型语言模型在三个临床病例描述数据集上进行严格评估和分析,我们发现这些模型在受保护群体之间存在各种不同程度的社会偏差,而大小模型并不一定比通用模型更具偏见,经过设计决策的提示方式对社会偏差也有影响,研究呼吁对在临床决策支持应用中使用的大型语言模型进行进一步评估、审查和改进。
大型语言模型(LLMs)嵌入偏见和刻板印象,可能导致有害的用户体验和社会后果。通过告知LLMs生成内容不代表观点,并质疑其偏见,可以提高LLMs识别和解决偏见的能力。一种新方法将LLMs置于多角色情景中,采用排名评分机制量化偏见水平,实现更精细的反思和优质输出。该方法在减少偏见方面优于现有方法,为追求更具伦理AI系统的努力作出贡献。