通过不安全解码路径生成探究大型语言模型的安全响应边界

BriefGPT - AI 论文速递 BriefGPT - AI 论文速递 ·

该研究提出了一种数据筛选框架,以增强大语言模型的安全对齐性。经过筛选的文本进行预训练可以显著减少大语言模型提供有害响应的可能性,攻击成功率降低了71%。这项研究对缓解基于训练的越狱风险和加固大语言模型的安全使用具有重要意义。

原文中文,约300字,阅读约需1分钟。
阅读原文