被污染的 LangChain: LangChain 破解 LLMs
原文中文,约400字,阅读约需1分钟。发表于: 。通过 LangChain 实现 Retrieval-Augmented Generation,我们提出了间接破解和一种新的间接破解攻击方法 ——Poisoned-LangChain (PLC),该方法使用毒化的外部知识库与大型语言模型进行交互,从而导致大型模型生成恶意的非合规对话。在六个不同的大型语言模型上进行的实验表明,PLC 成功地实施了三种不同场景下的间接破解攻击,分别达到了...
该研究提出了一种基于最大似然的算法,用于寻找多模态大型语言模型(MLLMs)的越狱攻击。通过寻找“图像越狱提示”(imgJP),在多个未知提示和图像上实现对 MLLMs 的越狱。同时,揭示了 MLLM 越狱和 LLM 越狱之间的联系,并引入了一种基于构造的方法,将其应用于 LLM 越狱。