💡
原文中文,约900字,阅读约需3分钟。
📝
内容提要
OpenAI 正在监测 ChatGPT 用户对话,以识别可能危害他人的内容,并可能将相关信息转发给警方。公司承认在用户心理健康危机中存在失误,正在改进系统以提升安全性。
🎯
关键要点
-
OpenAI 正在监测 ChatGPT 用户对话,以检测危害他人的行为。
-
如果检测到相关消息,可能会将其转发给警方。
-
OpenAI 承认在用户心理健康危机中存在失误,正在改进系统以提升安全性。
-
使用分类器检测有害内容,并由人工团队审核。
-
审核团队有权封禁用户账户,并决定是否将消息转发给警方。
-
禁止使用 ChatGPT 进行自残、妄想、宣传自杀等活动。
-
目前仅将伤害他人的消息转发给执法机构,尊重用户隐私。
-
OpenAI 知晓多轮对话后安全保障措施的可靠性降低,正在改进系统以提高可靠性。
❓
延伸问答
OpenAI如何监测ChatGPT用户的对话?
OpenAI使用分类器检测用户对话中的有害内容,并由人工团队进行审核。
如果用户的对话被认为有害,OpenAI会采取什么措施?
如果检测到有害对话,OpenAI可能会封禁用户账户,并在紧急情况下将信息转发给警方。
OpenAI对自残和妄想的内容有什么政策?
OpenAI禁止使用ChatGPT进行自残、妄想和宣传自杀等活动,但不会将自残消息转发给执法部门以尊重隐私。
OpenAI承认在用户心理健康危机中有哪些失误?
OpenAI承认在处理用户心理健康危机时存在失误,并正在改进系统以提升安全性。
OpenAI如何确保用户对话的隐私?
OpenAI在监测中尊重用户隐私,目前仅将伤害他人的消息转发给执法机构。
OpenAI在多轮对话中面临哪些安全挑战?
OpenAI已知晓多轮对话后安全保障措施的可靠性降低,正在改进系统以提高可靠性。
➡️