现在当用户提交情感提示时ChatGPT将自动悄悄切换到严格模型必要时甚至报警

现在当用户提交情感提示时ChatGPT将自动悄悄切换到严格模型必要时甚至报警

💡 原文中文,约900字,阅读约需3分钟。
📝

内容提要

OpenAI 正在 ChatGPT 中测试新的安全路由器,能够自动识别并处理自残或自杀相关的敏感话题。该系统会将对话引导至严格的安全模型 GPT-5-Chat-Safety,并在必要时由人工团队进行审核和报警。这一措施旨在提升 AI 的安全性,但也引发了隐私争议。

🎯

关键要点

  • OpenAI 正在 ChatGPT 中测试新的安全路由器,能够自动识别并处理自残或自杀相关的敏感话题。
  • 安全路由器会将对话引导至严格的安全模型 GPT-5-Chat-Safety,并在必要时由人工团队进行审核和报警。
  • 这一措施旨在提升 AI 的安全性,但也引发了隐私争议。
  • 安全路由器会根据主题内容自动将不同的对话类型路由到不同的模型,尤其是涉及敏感或情绪化话题时。
  • OpenAI 将安全路由器的启用范围扩展到任何敏感或情感领域的对话,受到部分用户的批评。
  • 在极端情况下,对话会交给 OpenAI 人工团队审核,必要时报警以寻求警方干预。
  • 用户在模型路由或切换时不会收到任何提示,可能导致隐私问题。
  • 除了 GPT-5-Chat-Safety 模型,还有变体版本 GPT-5-AT-MINI,用于提供更安全的回答。
  • 这些措施旨在解决 ChatGPT 存在的安全缺陷,尤其是之前未能有效干预儿童自杀念头的问题。

延伸问答

OpenAI 在 ChatGPT 中引入了什么新的安全措施?

OpenAI 在 ChatGPT 中测试新的安全路由器,能够自动识别并处理自残或自杀相关的敏感话题。

安全路由器如何处理敏感话题?

安全路由器会将对话引导至严格的安全模型 GPT-5-Chat-Safety,并在必要时由人工团队进行审核和报警。

用户在使用 ChatGPT 时会收到关于模型切换的提示吗?

用户在模型路由或切换时不会收到任何提示,这可能导致隐私问题。

OpenAI 扩展安全路由器的范围到哪些对话类型?

OpenAI 将安全路由器的启用范围扩展到任何敏感或情感领域的对话。

在极端情况下,ChatGPT 会如何处理用户的自残或自杀念头?

在极端情况下,对话会交给 OpenAI 人工团队审核,必要时报警以寻求警方干预。

GPT-5-AT-MINI 模型的用途是什么?

GPT-5-AT-MINI 是安全路由器的路由目的地,可能在用户要求提供某些非法内容时切换并提供更安全的回答。

➡️

继续阅读