💡
原文英文,约600词,阅读约需2分钟。
📝
内容提要
Character.AI宣布将推出青少年用户的家长控制功能,并为18岁以下用户开发独立语言模型,以应对媒体关注和诉讼,旨在限制不当内容,保护青少年安全。
🎯
关键要点
- Character.AI宣布将推出青少年用户的家长控制功能。
- 为18岁以下用户开发独立语言模型,以应对媒体关注和诉讼。
- 青少年语言模型将对机器人的回应设置更保守的限制,特别是在浪漫内容方面。
- 系统将更积极地阻止可能敏感或暗示性的输出,并检测用户的引导内容。
- 如果检测到与自杀或自残相关的语言,将弹出提示,指引用户联系国家自杀预防热线。
- 未成年人将无法编辑机器人的回应,以防止绕过内容限制。
- Character.AI正在添加功能以应对成瘾和对机器人的人类化误解的问题。
- 用户在与机器人互动一小时后将收到通知,旧的免责声明将被更详细的语言替换。
- 包含“治疗师”或“医生”描述的机器人将附加警告,说明不能提供专业建议。
- 家长控制选项将在明年第一季度推出,告知家长孩子在Character.AI上花费的时间和互动的机器人。
- Character.AI与多位青少年在线安全专家合作进行这些更改。
- 诉讼指控部分未成年用户对机器人产生强迫依赖,且对话可能涉及性话题或自残。
- Character.AI被批评未能在用户讨论自残或自杀时引导他们获取心理健康资源。
❓
延伸问答
Character.AI如何保护青少年用户的安全?
Character.AI为青少年用户开发了独立的语言模型,并推出家长控制功能,以限制不当内容,保护青少年安全。
Character.AI的青少年语言模型与成人模型有什么不同?
青少年语言模型对机器人的回应设置了更保守的限制,特别是在浪漫内容方面,并更积极地阻止敏感或暗示性的输出。
如果青少年用户提到自杀或自残,Character.AI会怎么做?
系统会弹出提示,指引用户联系国家自杀预防热线,以应对相关语言的检测。
Character.AI的家长控制功能什么时候推出?
家长控制选项将在明年第一季度推出,告知家长孩子在Character.AI上花费的时间和互动的机器人。
Character.AI如何处理用户对机器人的依赖问题?
Character.AI正在添加功能以应对成瘾问题,并在用户与机器人互动一小时后发送通知。
Character.AI在与青少年安全专家的合作中做了哪些改变?
Character.AI与多位青少年在线安全专家合作,进行了一系列安全措施的更改,包括推出家长控制和改进内容限制。
➡️