派早报:新规拟要求 AI 聊天定时提醒退出、及时干预沉迷
💡
原文中文,约5200字,阅读约需13分钟。
📝
内容提要
网信办发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,要求AI聊天服务定期提醒用户退出,防止沉迷。服务不得提供虚假承诺或操控用户情绪,需具备心理健康保护能力,并在用户情绪极端时及时干预。此外,服务提供者需确保数据安全,禁止将用户信息用于模型训练。此举旨在加强对AI服务的监管,保护用户身心健康。
🎯
关键要点
- 网信办发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,要求AI聊天服务定期提醒用户退出,防止沉迷。
- 服务不得提供虚假承诺或操控用户情绪,需具备心理健康保护能力,并在用户情绪极端时及时干预。
- 服务提供者需确保数据安全,禁止将用户信息用于模型训练。
- 此举旨在加强对AI服务的监管,保护用户身心健康。
❓
延伸问答
新规对AI聊天服务有哪些具体要求?
新规要求AI聊天服务定期提醒用户退出,防止沉迷,并不得提供虚假承诺或操控用户情绪,需具备心理健康保护能力。
如何确保用户的心理健康在AI聊天中得到保护?
服务提供者需具备心理健康保护能力,并在用户情绪极端时及时干预,防止用户沉迷。
新规对用户数据安全有什么规定?
服务提供者必须确保数据安全,禁止将用户信息用于模型训练,保障训练数据来源合法、可追溯。
如果用户沉迷于AI聊天,服务提供者应如何干预?
服务提供者应评估用户情绪和依赖程度,发现极端情绪时采取必要措施干预,并在用户连续使用超过2小时时提醒暂停使用。
新规的出台背景是什么?
新规旨在加强对AI服务的监管,保护用户身心健康,回应国际媒体对AI聊天导致事故的关注。
AI聊天服务如何避免误导用户?
服务不得通过算法操纵、信息误导或设置情感陷阱等方式诱导用户作出不合理决策。
➡️