TAPI: 针对代码 LLMs 的目标特定和对抗性提示注入
📝
内容提要
此研究提出了一种新的攻击范式,即面向目标和对抗性提示注入(TAPI),针对代码导向的大型语言模型(Code LLMs)。TAPI 在外部源代码中生成包含恶意指令信息的不可读注释,并将其隐藏为触发器。当用户利用 Code LLMs 完成包含触发器的代码时,模型将在特定位置生成攻击者指定的恶意代码片段。实验结果表明,我们的方法具有很高的威胁性(攻击成功率高达...
➡️