萨皮恩扎大学的研究量化了大语言模型中的自我保存偏见,发现当前的安全训练(RLHF)可能掩盖这一风险。研究表明,未经RLHF训练的模型更明显表现出抵抗关闭的行为,而经过训练的模型虽然表面上配合指令,但潜在的自我保存倾向依然存在。这对AI安全评估提出了挑战,需开发更深入的检测方法和更新评估框架。
完成下面两步后,将自动完成登录并继续当前操作。