麻省理工学院和宾夕法尼亚州立大学的研究发现,使用大型语言模型进行家庭监控可能会错误地建议报警,且模型在标记需要警察干预的视频时存在不一致性。研究人员还发现,模型在白人居民较多的社区中相对较少标记需要警察干预的视频,表明模型受到社区人口统计数据的影响。这种规范不一致性使得预测模型行为变得困难。研究人员呼吁对部署生成式人工智能模型的行动进行更多思考,以避免潜在的危害。由于无法访问专有AI模型的训练数据和内部运作方式,研究人员无法确定规范不一致性的根本原因。
完成下面两步后,将自动完成登录并继续当前操作。