本研究提出了一种改进的迁移攻击方法,解决了大型语言模型安全性研究中的越狱攻击不足。通过良性数据蒸馏,成功构建恶意提示,针对GPT-3.5 Turbo的攻击成功率高达92%,强调了防御机制的重要性。
本文提出了AdvDiffVLM方法,改善传统的迁移攻击方法。该方法利用扩散模型和自适应集成梯度估计,提高了传统方法的缺陷,并通过GradCAM-guided Mask方法提高了样本质量。实验结果显示,AdvDiffVLM方法速度快且对抗样本质量高,具有强大的迁移性和抗性。成功攻击了GPT-4V等大型视觉语言模型。
完成下面两步后,将自动完成登录并继续当前操作。