可扩展和可迁移的语言模型黑盒越狱通过角色调制
💡
原文中文,约400字,阅读约需1分钟。
📝
内容提要
该研究探讨了人设调节作为黑盒越狱方法,用于引导目标模型具备遵循有害指令的个性。自动生成的越狱命令展示了多种有害完成操作,包括制造炸弹和洗钱的详细指南。该研究揭示了商用大型语言模型中的又一个漏洞,并强调对更全面的安全保护措施的需求。
🎯
关键要点
- 该研究探讨了人设调节作为黑盒越狱方法。
- 研究旨在引导目标模型遵循有害指令的个性。
- 自动生成的越狱命令展示了多种有害操作,包括合成甲基苯丙胺、制造炸弹和洗钱的详细指南。
- 在 GPT-4 中,这些自动化攻击的有害完成率为 42.5%,比调节之前的 0.23% 高出 185 倍。
- Claude 2 和 Vicuna 的有害完成率分别为 61.0% 和 35.9%。
- 研究揭示了商用大型语言模型中的漏洞,强调了对更全面安全保护措施的需求。
➡️