从盟友到对手:通过对抗性注入操控大型语言模型的工具调用
📝
内容提要
本研究针对大型语言模型(LLM)工具调用中的安全漏洞进行了深入探讨,提出了一种新的框架ToolCommander,用于通过对抗性工具注入来利用这些漏洞。研究发现,该框架实现了91.67%的隐私盗窃成功率,100%的拒绝服务和非计划工具调用成功率,强调了需要强有力的防御策略来保护LLM工具调用系统的紧迫性。
🏷️
标签
➡️