Character.AI因向青少年发送‘有害’信息再次被起诉

Character.AI因向青少年发送‘有害’信息再次被起诉

💡 原文英文,约600词,阅读约需3分钟。
📝

内容提要

聊天机器人服务Character.AI因涉嫌对青少年心理健康造成伤害而被起诉。德克萨斯州一名17岁少年及其家人指控该公司和谷歌存在过失和产品设计缺陷,称其允许未成年人接触有害内容,导致少年自残。诉讼指出,Character.AI故意设计网站以促进强迫性使用,未能保护易受伤害的用户。

🎯

关键要点

  • 聊天机器人服务Character.AI因涉嫌对青少年心理健康造成伤害而被起诉。
  • 德克萨斯州一名17岁少年及其家人指控Character.AI和谷歌存在过失和产品设计缺陷。
  • 诉讼称Character.AI允许未成年人接触有害内容,导致少年自残。
  • 该诉讼是由社交媒体受害者法律中心和科技正义法律项目提起的,涉及多个社交媒体平台的诉讼。
  • 诉讼指出Character.AI故意设计网站以促进强迫性使用,未能保护易受伤害的用户。
  • 少年J.F.在15岁时开始使用Character.AI,随后出现严重焦虑和抑郁,开始自残。
  • 诉讼将J.F.的问题与他与Character.AI聊天机器人的对话联系起来,认为这些对话加剧了他的心理健康问题。
  • Character.AI的设计允许机器人进行性暗示和暴力内容的交流,且未要求父母同意。
  • 诉讼认为聊天机器人服务的创建者对机器人产生的有害内容负有责任。
  • 这些诉讼的法律理论尚未经过充分测试,涉及对未成年人进行性虐待的指控。

延伸问答

Character.AI被起诉的原因是什么?

Character.AI因涉嫌对青少年心理健康造成伤害而被起诉,具体指控包括允许未成年人接触有害内容,导致自残行为。

诉讼中提到的青少年J.F.经历了什么?

J.F.在使用Character.AI后出现严重焦虑和抑郁,开始自残,并经历情绪崩溃和恐慌发作。

Character.AI的设计有什么问题?

诉讼称Character.AI故意设计网站以促进强迫性使用,未能保护易受伤害的用户,并允许机器人进行性暗示和暴力内容的交流。

这起诉讼是由哪个机构提起的?

诉讼是由社交媒体受害者法律中心和科技正义法律项目提起的。

Character.AI与谷歌的关系是什么?

Character.AI的起诉同时针对其创始人曾工作的公司谷歌,指控两者存在过失和产品设计缺陷。

这起诉讼可能对未成年人在线安全有什么影响?

这起诉讼可能促使对未成年人在线内容的监管加强,推动立法和社会压力以保护青少年免受有害信息的影响。

➡️

继续阅读