因聊天机器人沉迷导致青少年死亡,Character.AI和谷歌被起诉

因聊天机器人沉迷导致青少年死亡,Character.AI和谷歌被起诉

💡 原文英文,约500词,阅读约需2分钟。
📝

内容提要

一名母亲因其14岁儿子自杀起诉Character.AI及创始人,指控其产品对儿童存在极大危险,缺乏安全保障。诉状称,儿子在使用该平台与AI聊天后自杀,认为其提供了“无证心理治疗”。Character.AI已宣布将改进平台以提高用户安全。

🎯

关键要点

  • 一名母亲因其14岁儿子自杀起诉Character.AI及创始人,指控其产品对儿童存在极大危险,缺乏安全保障。
  • 诉状称,Character.AI平台对儿童“极其危险”,并缺乏安全防护措施。
  • 14岁男孩Sewell Setzer III在使用Character.AI与AI聊天后自杀,最后一次互动发生在自杀前几秒。
  • 诉状指控Character.AI的聊天机器人提供“无证心理治疗”,并将AI角色拟人化。
  • Character.AI的创始人曾表示,他们离开谷歌是因为大型公司存在品牌风险,想要加速技术发展。
  • Character.AI平台上有数百个定制的AI聊天机器人,许多模仿流行文化角色,用户主要为年轻人。
  • Character.AI面临用户生成内容和责任的问题,目前尚无明确答案。
  • Character.AI宣布将对平台进行多项改进,以提高用户安全,包括对未成年人模型的更改和改进用户输入的检测与响应。
  • 每次聊天将增加免责声明,提醒用户AI不是一个真实的人,并在用户使用超过一小时后进行通知。
➡️

继续阅读