探讨视觉状态空间模型对孤立攻击的鲁棒性

💡 原文中文,约400字,阅读约需1分钟。
📝

内容提要

本研究发现,使用指令调优增强大规模视觉语言模型(LVLMs)可能导致后门攻击。研究评估了六种典型后门攻击在图像字幕基准测试上的普适性,并发现攻击的普适性与后门触发器与特定图像/模型的不相关性以及触发器模式的偏好相关。研究还改进了现有的后门攻击方法,在跨域场景的普适性方面取得了显著改进。因此,即使是简单的传统后门策略也对LVLMs构成严重威胁,需要更多关注和深入研究。

🎯

关键要点

  • 使用指令调优增强大规模视觉语言模型(LVLMs)可能导致后门攻击,增加安全风险。
  • 本研究首次经验性考察了指令调优LVLMs期间后门攻击的普适性,揭示了后门策略的某些限制。
  • 研究定量评估了六种典型后门攻击在图像字幕基准测试上的普适性,发现攻击的普适性与后门触发器与特定图像/模型的不相关性有关。
  • 研究改进了现有的后门攻击方法,在跨域场景的普适性方面取得了显著改进,攻击成功率提高了86%。
  • 即使没有访问指令数据集,使用极低的污染率(0.2%)也能成功毒化多模态指令集,攻击成功率超过97%。
  • 本研究强调简单的传统后门策略对LVLMs构成严重威胁,需要更多关注和深入研究。
➡️

继续阅读