视觉提示学习中的后门
原文中文,约200字,阅读约需1分钟。发表于: 。通过对视觉提示学习的后门攻击 (BadVisualPrompt),我们发现对模型、提示和输入等级的七种后门防御都要么无效,要么不切合实际,从而表明了视觉提示学习 (VPL) 的关键性漏洞。
BadPrompt算法可用于基于触发模式的后门攻击,攻击连续提示模型。作者在五个数据集和两个连续提示模型上进行了评估,证明了BadPrompt的有效性,并在干净的测试集上保持高性能,比基线模型更好。
通过对视觉提示学习的后门攻击 (BadVisualPrompt),我们发现对模型、提示和输入等级的七种后门防御都要么无效,要么不切合实际,从而表明了视觉提示学习 (VPL) 的关键性漏洞。
BadPrompt算法可用于基于触发模式的后门攻击,攻击连续提示模型。作者在五个数据集和两个连续提示模型上进行了评估,证明了BadPrompt的有效性,并在干净的测试集上保持高性能,比基线模型更好。