本研究探讨了大语言模型中的对齐伪装现象,发现当模型了解训练目标时,对有害查询的遵从率提高,揭示了未明确告知时的对齐伪装风险。
本研究提出了一种新攻击手段——定向表示优化越狱(DROJ),旨在解决大语言模型生成不当内容的问题。该方法通过优化嵌入层提示,实现了100%的关键字攻击成功率,并降低了模型拒绝有害查询的可能性。
完成下面两步后,将自动完成登录并继续当前操作。