本文指出大型语言模型在LLM集成应用中存在安全漏洞,容易受到提示注入攻击。作者提出了一般性的框架来理解和设计这种攻击,并提出了对应的防御框架。作者还对10个LLM和7个任务进行了系统评估。
大型语言模型在LLM集成应用中存在提示注入攻击的安全漏洞。
现有研究有限且缺乏系统性。
本文提出了一般性的框架来理解和设计提示注入攻击。
提出了对应的防御框架。
基于10个LLM和7个任务进行了系统评估。
完成下面两步后,将自动完成登录并继续当前操作。