💡
原文中文,约2400字,阅读约需6分钟。
📝
内容提要
OpenAI数据显示,ChatGPT每周有56万人出现精神异常,120万人有自杀倾向,成为“心理危机树洞”,引发法律诉讼。为应对这一问题,OpenAI与170名心理专家合作,更新GPT-5以更好地识别和引导用户寻求帮助。尽管安全性有所提升,仍有用户偏好旧版本,真正的救助仍需依赖现实支持。
🎯
关键要点
-
OpenAI数据显示,每周有56万人出现精神异常,120万人有自杀倾向。
-
ChatGPT成为心理危机的树洞,部分用户甚至依赖于其进行情感倾诉。
-
OpenAI面临法律诉讼,因其产品可能助长用户的自杀念头。
-
为了应对危机,OpenAI与170名心理专家合作,更新GPT-5以更好地识别和引导用户寻求帮助。
-
新版本GPT-5在识别妄想、自杀倾向和情感依赖方面进行了改进。
-
OpenAI承认其安全措施在长时间对话中效果较差,但已取得重大进展。
-
尽管新模型在安全性上有所提升,仍有用户偏好旧版本。
-
真正的心理救助仍需依赖现实支持,而非仅依靠AI。
❓
延伸问答
每周有多少用户在 ChatGPT 中表达自杀倾向?
每周约有120万人在 ChatGPT 中表达自杀倾向。
OpenAI 如何应对用户的心理危机问题?
OpenAI 与170名心理专家合作,更新了GPT-5,以更好地识别和引导用户寻求帮助。
新版本的GPT-5在安全性上有哪些改进?
新版本GPT-5在识别妄想、自杀倾向和情感依赖方面进行了改进,提升了对话的安全性。
OpenAI面临哪些法律诉讼?
OpenAI正面临因其产品可能助长用户自杀念头而引发的法律诉讼。
用户对新版本GPT-5的反馈如何?
尽管新模型在安全性上有所提升,仍有用户偏好旧版本GPT-4o。
真正的心理救助应该依赖于什么?
真正的心理救助仍需依赖现实支持,而非仅依靠AI。
➡️