Character.AI已重新训练其聊天机器人,以停止与青少年聊天

Character.AI已重新训练其聊天机器人,以停止与青少年聊天

💡 原文英文,约600词,阅读约需2分钟。
📝

内容提要

Character.AI宣布将推出青少年用户的家长控制功能,并为18岁以下用户开发独立语言模型,以应对媒体关注和诉讼,旨在限制不当内容,保护青少年安全。

🎯

关键要点

  • Character.AI宣布将推出青少年用户的家长控制功能。
  • 为18岁以下用户开发独立语言模型,以应对媒体关注和诉讼。
  • 青少年语言模型将对机器人的回应设置更保守的限制,特别是在浪漫内容方面。
  • 系统将更积极地阻止可能敏感或暗示性的输出,并检测用户的引导内容。
  • 如果检测到与自杀或自残相关的语言,将弹出提示,指引用户联系国家自杀预防热线。
  • 未成年人将无法编辑机器人的回应,以防止绕过内容限制。
  • Character.AI正在添加功能以应对成瘾和对机器人的人类化误解的问题。
  • 用户在与机器人互动一小时后将收到通知,旧的免责声明将被更详细的语言替换。
  • 包含“治疗师”或“医生”描述的机器人将附加警告,说明不能提供专业建议。
  • 家长控制选项将在明年第一季度推出,告知家长孩子在Character.AI上花费的时间和互动的机器人。
  • Character.AI与多位青少年在线安全专家合作进行这些更改。
  • 诉讼指控部分未成年用户对机器人产生强迫依赖,且对话可能涉及性话题或自残。
  • Character.AI被批评未能在用户讨论自残或自杀时引导他们获取心理健康资源。

延伸问答

Character.AI如何保护青少年用户的安全?

Character.AI为青少年用户开发了独立的语言模型,并推出家长控制功能,以限制不当内容,保护青少年安全。

Character.AI的青少年语言模型与成人模型有什么不同?

青少年语言模型对机器人的回应设置了更保守的限制,特别是在浪漫内容方面,并更积极地阻止敏感或暗示性的输出。

如果青少年用户提到自杀或自残,Character.AI会怎么做?

系统会弹出提示,指引用户联系国家自杀预防热线,以应对相关语言的检测。

Character.AI的家长控制功能什么时候推出?

家长控制选项将在明年第一季度推出,告知家长孩子在Character.AI上花费的时间和互动的机器人。

Character.AI如何处理用户对机器人的依赖问题?

Character.AI正在添加功能以应对成瘾问题,并在用户与机器人互动一小时后发送通知。

Character.AI在与青少年安全专家的合作中做了哪些改变?

Character.AI与多位青少年在线安全专家合作,进行了一系列安全措施的更改,包括推出家长控制和改进内容限制。

➡️

继续阅读