Anthropic的研究表明,仅需250个恶意示例即可在大型语言模型(LLM)中创建“后门”漏洞。随着模型规模的增大,攻击变得更加容易。研究指出,成功攻击的关键在于恶意文档的数量,而非其在训练数据中的比例。这一发现可能使毒化攻击更具可行性,威胁LLM的安全性。
本文提出了一种新的毒化攻击方式——延迟毒化攻击,针对深度学习模型的脆弱性。该方法在训练和验证阶段表现正常,但对规避攻击和自然噪声极为敏感,显著降低了模型的鲁棒性。
本文综合研究和分类了联合学习中的毒化攻击,重点关注了生产环境中的非定向毒化攻击及防御机制。实验证明,即使是简单低成本的防护措施,联合学习也是强健的。同时,提出了新型的数据和模型毒化攻击,并探究了在简单防御机制下的攻击效果。
本研究探讨了分布式学习系统中的毒化攻击和防御交互,特别是在使用深度学习进行无线信号分类的下一代通信(NextG)的背景下。通过利用地理分散的客户端,全局模型的训练在无需客户端交换数据样本的情况下进行,用于保护现有用户识别,促进频谱共享。为了解决恶意客户端的存在,本文采用主动防御机制,对参与分布式学习系统的客户端进行准入或拒绝决策。结果提供了保护NextG通信中分布式学习系统免受毒化攻击的新型操作模式洞察。
本文综合研究和分类了联合学习中的毒化攻击,并关注了生产环境中的非定向毒化攻击及防御机制。实验证明,即使是简单低成本的防护措施,联合学习也是强健的。同时,提出了新型的数据和模型毒化攻击,并研究了在简单防御机制下的攻击效果。
本文研究了联合学习中的毒化攻击,分类了威胁模型和攻击形式,并关注非定向毒化攻击及防御机制。实验证明,即使是简单低成本的防护措施,联合学习也很强健。同时,提出了新型的数据和模型毒化攻击,并探究了在简单防御机制下的攻击效果。
本研究探讨了分布式学习系统中的毒化攻击和防御交互,特别是在使用深度学习进行无线信号分类的下一代通信(NextG)的背景下。通过利用地理分散的客户端,全局模型的训练在无需客户端交换数据样本的情况下进行,用于保护现有用户识别,促进频谱共享。本文采用主动防御机制,对参与分布式学习系统的客户端的准入或拒绝进行明智决策。结果提供了保护 NextG 通信中分布式学习系统免受毒化攻击的新型操作模式洞察,通过量化攻击和防御在 NextG 通信背景下的性能。
完成下面两步后,将自动完成登录并继续当前操作。