PARDEN,你能重复一遍吗?通过重复防御越狱
原文中文,约300字,阅读约需1分钟。发表于: 。本文提出了一种名为 PARDEN 的方法,通过要求模型重复自己的输出来检测和减少 Large Language Models(LLMs)的安全风险,该方法在监测入狱风险方面明显优于现有方法。
我们提出了一种自我改进的格式化方法,可以在非安全对齐的语言模型中实现出色的安全性。通过与几种防御基线进行评估,证明它是最安全的无需训练的方法。研究发现非安全对齐的语言模型在安全任务中表现更好,给出更有帮助且安全的回应。这项研究可以减少计算成本,降低安全风险,使非安全的语言模型可以在真实世界的服务中应用。