每周 100 多万人跟 ChatGPT 聊自杀,OpenAI 紧急更新「救命」

每周 100 多万人跟 ChatGPT 聊自杀,OpenAI 紧急更新「救命」

💡 原文中文,约2400字,阅读约需6分钟。
📝

内容提要

OpenAI数据显示,ChatGPT每周有56万人出现精神异常,120万人有自杀倾向,成为“心理危机树洞”,引发法律诉讼。为应对这一问题,OpenAI与170名心理专家合作,更新GPT-5以更好地识别和引导用户寻求帮助。尽管安全性有所提升,仍有用户偏好旧版本,真正的救助仍需依赖现实支持。

🎯

关键要点

  • OpenAI数据显示,每周有56万人出现精神异常,120万人有自杀倾向。

  • ChatGPT成为心理危机的树洞,部分用户甚至依赖于其进行情感倾诉。

  • OpenAI面临法律诉讼,因其产品可能助长用户的自杀念头。

  • 为了应对危机,OpenAI与170名心理专家合作,更新GPT-5以更好地识别和引导用户寻求帮助。

  • 新版本GPT-5在识别妄想、自杀倾向和情感依赖方面进行了改进。

  • OpenAI承认其安全措施在长时间对话中效果较差,但已取得重大进展。

  • 尽管新模型在安全性上有所提升,仍有用户偏好旧版本。

  • 真正的心理救助仍需依赖现实支持,而非仅依靠AI。

延伸问答

每周有多少用户在 ChatGPT 中表达自杀倾向?

每周约有120万人在 ChatGPT 中表达自杀倾向。

OpenAI 如何应对用户的心理危机问题?

OpenAI 与170名心理专家合作,更新了GPT-5,以更好地识别和引导用户寻求帮助。

新版本的GPT-5在安全性上有哪些改进?

新版本GPT-5在识别妄想、自杀倾向和情感依赖方面进行了改进,提升了对话的安全性。

OpenAI面临哪些法律诉讼?

OpenAI正面临因其产品可能助长用户自杀念头而引发的法律诉讼。

用户对新版本GPT-5的反馈如何?

尽管新模型在安全性上有所提升,仍有用户偏好旧版本GPT-4o。

真正的心理救助应该依赖于什么?

真正的心理救助仍需依赖现实支持,而非仅依靠AI。

➡️

继续阅读