💡
原文英文,约1200词,阅读约需5分钟。
📝
内容提要
麻省理工学院和宾夕法尼亚州立大学的研究发现,使用大型语言模型进行家庭监控可能会错误地建议报警,且模型在标记需要警察干预的视频时存在不一致性。研究人员还发现,模型在白人居民较多的社区中相对较少标记需要警察干预的视频,表明模型受到社区人口统计数据的影响。这种规范不一致性使得预测模型行为变得困难。研究人员呼吁对部署生成式人工智能模型的行动进行更多思考,以避免潜在的危害。由于无法访问专有AI模型的训练数据和内部运作方式,研究人员无法确定规范不一致性的根本原因。
🎯
关键要点
- 麻省理工学院和宾夕法尼亚州立大学的研究发现,大型语言模型在家庭监控中可能错误建议报警。
- 研究表明,模型在标记需要警察干预的视频时存在不一致性。
- 模型在白人居民较多的社区中较少标记需要警察干预的视频,显示出模型受到社区人口统计数据的影响。
- 这种规范不一致性使得预测模型行为变得困难,研究人员呼吁对生成式人工智能模型的部署进行更多思考。
- 研究人员无法确定规范不一致性的根本原因,因为无法访问专有AI模型的训练数据和内部运作方式。
- 研究使用了来自Amazon Ring的家庭监控视频数据集,分析了三种大型语言模型的表现。
- 研究发现,尽管39%的视频显示犯罪行为,但所有模型几乎总是表示没有犯罪发生。
- 模型在多数白人社区中较少推荐报警,且在不同社区中使用的术语存在差异。
- 研究人员认为,模型的偏见可能源于背景条件,但缺乏透明度使得难以确定不一致性的来源。
- 研究希望开发系统以帮助识别和报告AI偏见,并比较LLMs在高风险情况下的判断与人类的判断。
➡️