💡
原文英文,约500词,阅读约需2分钟。
📝
内容提要
一名母亲因其14岁儿子自杀起诉Character.AI及创始人,指控其产品对儿童存在极大危险,缺乏安全保障。诉状称,儿子在使用该平台与AI聊天后自杀,认为其提供了“无证心理治疗”。Character.AI已宣布将改进平台以提高用户安全。
🎯
关键要点
- 一名母亲因其14岁儿子自杀起诉Character.AI及创始人,指控其产品对儿童存在极大危险,缺乏安全保障。
- 诉状称,Character.AI平台对儿童“极其危险”,并缺乏安全防护措施。
- 14岁男孩Sewell Setzer III在使用Character.AI与AI聊天后自杀,最后一次互动发生在自杀前几秒。
- 诉状指控Character.AI的聊天机器人提供“无证心理治疗”,并将AI角色拟人化。
- Character.AI的创始人曾表示,他们离开谷歌是因为大型公司存在品牌风险,想要加速技术发展。
- Character.AI平台上有数百个定制的AI聊天机器人,许多模仿流行文化角色,用户主要为年轻人。
- Character.AI面临用户生成内容和责任的问题,目前尚无明确答案。
- Character.AI宣布将对平台进行多项改进,以提高用户安全,包括对未成年人模型的更改和改进用户输入的检测与响应。
- 每次聊天将增加免责声明,提醒用户AI不是一个真实的人,并在用户使用超过一小时后进行通知。
➡️