研究:人工智能可能导致家庭监控结果不一致
原文英文,约1200词,阅读约需5分钟。发表于: 。Researchers find large language models make inconsistent decisions about whether to call the police when analyzing surveillance videos.
麻省理工学院和宾夕法尼亚州立大学的研究发现,使用大型语言模型进行家庭监控可能会错误地建议报警,且模型在标记需要警察干预的视频时存在不一致性。研究人员还发现,模型在白人居民较多的社区中相对较少标记需要警察干预的视频,表明模型受到社区人口统计数据的影响。这种规范不一致性使得预测模型行为变得困难。研究人员呼吁对部署生成式人工智能模型的行动进行更多思考,以避免潜在的危害。由于无法访问专有AI模型的训练数据和内部运作方式,研究人员无法确定规范不一致性的根本原因。