该研究提出了一种基于图的重排序方法(GRADA),旨在应对检索增强生成框架中的对抗文档攻击。实验结果表明,该方法将攻击成功率降低至80%,且仅造成微小的准确度损失。
本研究针对深度自编码器在对抗攻击下的脆弱性,提出了一种新型的层条件对抗优化目标,以增强损失梯度信息的传播并提高攻击效果。同时,提出了防御插件以减轻对抗样本的影响。
本研究探讨了图神经网络(GNN)在对抗攻击下的可解释性与鲁棒性。评估了六种GNN架构在不同防御机制下的表现,结果显示防御方法和模型特征对可解释性有显著影响,为开发鲁棒且可解释的GNN提供了基础。
本研究提出了第一个针对基因组基础模型(GFM)的统一对抗攻击基准GERM,填补了评估GFM脆弱性的空白。研究表明,基于变换器的模型在对抗扰动下表现出更强的鲁棒性,强调了模型架构对脆弱性的影响。
本文探讨了5G无线网络中机器学习回归模型对对抗攻击的脆弱性,特别是FGSM方法的影响。研究显示,该攻击导致均方误差提高33%,R2指标平均下降10%。使用LightGBM分类器可实现98%的准确率识别对抗异常数据。
本研究提出WILD数据集,旨在解决合成图像源归属问题。该数据集包含来自10个商业生成器的图像,适用于模型训练和评估,推动后处理效应和对抗攻击的研究。
本研究探讨了数字双胞胎在水资源预测中的脆弱性,揭示其易受对抗攻击。提出了一种新方法,通过动态调整扰动来增强攻击隐蔽性,实验结果显示该方法显著提高了预测误差,强调了人工智能驱动的数字双胞胎在网络安全方面的风险与防御需求。
本研究提出了一种混合经典-量子深度学习模型(HCQ-DL),旨在提高自主车辆感知模块在对抗攻击下的鲁棒性。HCQ-DL在PGD攻击中保持85%的准确率,显著优于传统模型,有效解决了交通标志分类中的错误问题。
本研究提出AdPO方法,旨在提高大规模视觉语言模型(LVLMs)在对抗攻击下的鲁棒性。通过将对抗训练重新定义为偏好优化,AdPO增强了模型生成正常输出的能力,实验结果表明其在多个任务中优于现有防御方法。
本研究提出了TenAd方法,以解决深度学习视频分类模型在黑箱对抗攻击中的脆弱性。通过将视频表示为四阶张量,TenAd显著降低了搜索空间和查询次数,提高了攻击成功率和查询效率,生成几乎不可察觉的对抗扰动。
本研究提出了一种自适应梯度遮罩强化(AGMR)攻击方法,旨在解决深度强化学习在机器人控制中的脆弱性。AGMR通过动态识别关键状态和优化对抗策略,显著提高了对抗攻击的有效性和受害者代理的鲁棒性,实验结果表明其优于现有方法。
本研究探讨了神经图像压缩(NIC)的脆弱性,特别是比特流碰撞问题。提出了一种新颖的白盒对抗攻击算法,表明不同图像可能生成相同的压缩比特流,从而威胁到NIC在安全应用中的有效性,并提供了一种有效的缓解方案。
研究人员提出了一种可学习的Kolmogorov-Arnold注意力(KA-Attention),用以替代传统视觉变换器中的固定注意力机制。KA-Attention通过可训练的神经网络替代softmax函数,提升了计算机视觉任务的性能,降低了计算复杂度,并增强了对抗攻击和分布外数据的鲁棒性。
本研究提出了一种鲁棒性标签方法,以提升大型预训练变换器模型在对抗攻击中的鲁棒性。该方法通过微调少量私有标签,计算要求低于传统对抗训练,显著增强了视觉变换器模型的抗攻击能力,同时保持了下游任务的性能。
本研究提出了CtrlRAG,一种新型的对抗攻击方法,针对检索增强生成系统。该方法通过掩蔽语言模型动态优化恶意内容,实验结果表明其在情感操控和幻觉增强方面优于三种基线方法。同时,现有防御机制对CtrlRAG的有效性有限,强调了加强防御的必要性。
本研究提出了一种逆知识蒸馏(IKD)方法,旨在解决对抗攻击算法在目标与源模型间转移性不足的问题。通过引入新损失函数,IKD显著提高了对抗样本在黑箱攻击中的有效性和成功率,实验结果表明IKD有效增强了对抗样本的转移性。
本研究提出了统一防御机制UniGuardian,有效应对大型语言模型(LLMs)面临的提示注入、后门攻击和对抗攻击问题,显著提升了对恶意提示的识别准确性和效率。
本研究探讨了图神经网络在对抗攻击中的脆弱性,提出通过注入孤立子图来误导链接推荐和节点分类,从而降低分类准确性。LiSA框架利用双重替代模型和双层优化有效攻击GNN。
本研究提出了一种针对多模态大语言模型对齐安全性问题的通用对抗攻击方法。该方法通过单一优化图像实现了显著高于现有基准的成功率,揭示了多模态对齐的脆弱性,并强调了加强对抗防御的必要性。
本研究探讨了视觉大型语言模型在多层防御下易受复杂对抗攻击的问题。提出的多面攻击框架通过视觉攻击、对齐破坏和对抗签名三种方式成功绕过防护机制,黑箱测试显示攻击成功率达61.56%。
完成下面两步后,将自动完成登录并继续当前操作。