本文研究了大型语言模型在上下文学习中的脆弱性,尤其是在认知负荷过重时容易受到攻击。研究提出了一种新的提示注入攻击方法,成功率高达99.99%,显示现有安全机制不足,需开发更稳健的保护措施。
完成下面两步后,将自动完成登录并继续当前操作。