本研究提出了一种新颖的风险分类法,用于评估人工智能心理治疗代理的潜在用户伤害和自杀风险。该分类法通过监测认知模型基础的风险因素,有效识别不安全的偏差,促进更安全的心理健康支持创新。
研究发现,为ChatGPT分配假想角色会增加生成结果的亵渎程度,可能损害角色名誉并对用户造成伤害。研究呼吁AI社区重新思考安全防护措施,开发更好的技术实现强大、安全和值得信赖的AI系统。
研究发现,为ChatGPT分配假想人物角色会增加生成结果的亵渎程度,可能损害角色名誉并对用户造成伤害。研究呼吁AI社区重新思考安全防护措施,开发更好的技术实现强大、安全和值得信赖的AI系统。
完成下面两步后,将自动完成登录并继续当前操作。