Fair Code: Assessing Social Bias in Code Generation of Large Language Models
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出了FairCode基准,用于评估代码生成中的社会偏见。结果表明,所有测试的大型语言模型均存在偏见,强调了评估其社会偏见的重要性。
🎯
关键要点
- 本研究提出了FairCode基准,用于评估代码生成中的社会偏见。
- 研究发现,所有测试的大型语言模型均存在偏见。
- 强调了评估代码生成中社会偏见的重要性。
➡️