本文探讨了机器学习中的对抗性样本检测,提出了统计检验和模型增强方法,强调统计特性的重要性。研究分析了对抗性攻击及防御策略,评估了不同神经网络在工业故障诊断中的脆弱性,并提出结合多种防御方法以提高安全性。
本文介绍了对抗性样本攻击的多种方法,包括改进型PGD和C&W方法,强调了友好对抗训练(FAT)和稀疏对抗扰动的有效性。研究表明,这些方法在MNIST和CIFAR-10数据集上表现优异,能有效提高模型的鲁棒性,降低训练成本。
该研究探讨了对抗性样本及训练,提出多样化训练和集成方法以提高深度学习模型的鲁棒性。通过随机化分类器和噪声注入等技术,显著增强了模型对抗攻击的抵抗力,并在多个数据集上取得了优异表现。
本研究探讨了非极大值抑制(NMS)在目标检测中的应用,提出了多种改进方法,如Soft-NMS和基于分组的可微分NMS,显著提高了检测精度和效率。同时,研究分析了对抗性样本攻击对检测系统的影响,并提出基于置信传播聚类的检测方法,以提升检测框的准确性。
本研究探讨了深度神经网络输入空间的模式连通性,发现具有相似预测的不同输入图像之间存在连通性,揭示了优化算法收敛过程的内在规律,并提供了对抗性样本的新见解。
该论文介绍了GenAttack,一种黑盒对抗攻击优化技术,通过遗传算法生成对抗性样本并攻击图像识别模型。该方法查询量少且能攻击对抗性训练的防御措施,证明了遗传算法在黑盒攻击研究中的可行性和前景。
研究了机器学习算法的对抗性攻击,发现对抗性样本的嵌入维度与模型输入样本具有相同嵌入维度时的有效性之间存在很强的相关性,并设计了一种对抗性防御机制。通过使用各种固有维度的集成模型来阻止攻击,在多个数据集上测试了其有效性。同时,还研究了使用不同距离度量来衡量对抗性扰动的问题。
通过RL的有针对性改写方法,使用FLAN T5作为生成器,通过近端策略梯度自动学习生成对抗性样本,改善模型性能。实验证明其在发现自然对抗性攻击和提高模型性能方面有效,优于强基准线,具有普适性。结合语言建模和强化学习的优势生成多样且有影响力的对抗性样本。
研究人员提出了一种名为Instruct2Attack(I2A)的基于语言引导的语义攻击方法,利用潜态扩散模型生成对抗性潜态编码,生成更自然和多样的对抗性样本。通过GPT-4自动化攻击过程,生成多样的图像特定文本指令。研究表明,I2A能够成功破解深度神经网络,并具有强大的迁移能力。
本文通过强化学习生成对抗性样本,探究了神经机器翻译系统的失败情况,并对两种主流架构进行了敌对攻击实验。结果显示该方法能有效生成稳定的攻击和有保留含义的对抗性样本,并展示了攻击偏好模式的定性和定量分析,证明了该方法能暴露系统的缺陷。
提出了一种针对长尾分布数据集的对抗训练框架——REAT,通过惩罚函数生成平衡和有信息的对抗性样本,提高模型鲁棒性和准确性。经过评估证明REAT有效。
研究提出了一种新型生成模型,可以制造出近似自然图像的对抗性样本,欺骗之前训练好的模型。扰动成功率高,规模小,比当前迭代方法更快。
该文介绍了一种自我监督、计算成本低的方法,用于在未知黑盒设置中生成对抗性样本。该方法在攻击训练模型时与最先进方法相当有效,在攻击未知模型时则显著更有效。
本研究提出了一种基于敏感度不一致性的检测器(SID),可检测小扰动水平下的对抗性样本。SID在AE检测性能和泛化能力方面优于其他算法。
本文通过强化学习生成对抗性样本,研究了神经机器翻译系统的失败情况,对RNN-search和Transformer进行了敌对攻击实验,结果表明该方法能够有效生成稳定的攻击和有保留含义的对抗性样本,并展示了攻击偏好模式的定性和定量分析,证明了该方法能够暴露神经翻译系统的缺陷。
完成下面两步后,将自动完成登录并继续当前操作。