网络安全研究机构XLab发现针对ComfyUI框架的Pickai后门攻击,已导致全球近700台服务器受损。该后门具备隐匿和持久化能力,并与商业AI平台Rubick.ai相关,增加了供应链攻击风险。XLab警告清除难度极高,需立即采取防御措施。
内存马是一种隐蔽的后门攻击,攻击者通过动态生成Servlet、Filter或Listener,将恶意代码注入Java Web应用的内存中以执行远程命令。其特点是无需依赖磁盘文件,依赖于应用的生命周期,重启后会消失。检测和防御内存马难度较大,需要结合漏洞修补、监控和行为分析等手段。
本研究提出了BadSR方法,旨在解决图像超分辨率模型易受后门攻击的问题。该方法提高了被污染高分辨率图像的隐秘性,并确保对干净图像的修改保持在受限范围内。实验结果表明,该方法在多种模型和数据集上具有高攻击成功率,显著影响下游任务。
本研究提出了一种名为FeRA的防御机制,旨在缓解联邦学习中的后门攻击。该机制通过跨客户端的特征表示注意力,区分良性与恶意客户端,显著降低攻击成功率,同时保持主任务的高准确性,适用于资源有限的边缘设备。
开源软件供应链安全面临挑战,历史上多次出现后门攻击。理解软件供应链的复杂性至关重要,需验证软件身份、实现可重现构建,并快速发现和修复漏洞。预防漏洞和资助开源项目也是关键。
本研究提出了一种名为Cert-SSB的样本特定认证防御方法,旨在提高深度神经网络对后门攻击的防御能力。通过优化样本噪声幅度并结合多个平滑模型的预测,显著提升了防御效果和认证性能。
本研究质疑知识蒸馏的安全性,提出通过在蒸馏数据集中嵌入后门触发器的对抗样本进行后门攻击的方法。实验表明,该方法能够在不影响教师模型的情况下,成功影响学生模型,揭示了知识蒸馏中的安全漏洞。
本研究探讨了机器学习中概念抹除技术的安全漏洞,提出了“有害抹除”威胁模型,并通过后门攻击实例揭示现有抹除算法的脆弱性,指出当前策略存在重大安全隐患。
本研究提出FFCBA方法,解决多目标后门攻击中干净标签攻击性能不稳定和扩展性差的问题。通过特征扩展和迁移,生成有效的噪声触发器,实现高效的跨模型攻击,展现出优越的攻击性能和良好的鲁棒性。
本研究提出了一种新的空间基础全目标隐形后门攻击方法(SFIBA),有效解决了现有多目标后门攻击在黑箱环境中的触发器特异性和隐蔽性问题。SFIBA通过限制触发器的局部区域和形态,并采用频域注入方法,确保攻击的隐蔽性和有效性。实验结果表明,该方法在保持模型性能的同时,显著提升了攻击效果和隐蔽性。
本研究提出了针对文本到视频生成模型的后门攻击框架BadVideo,利用空间-时间组合和动态元素转化策略,攻击者可以隐秘地将恶意信息嵌入生成的视频中,从而威胁内容审核系统的安全。
本研究提出“后门注入污染推荐系统”(BadRec)框架,探讨大型语言模型驱动的推荐系统在后门攻击下的安全性。研究表明,仅需污染1%的训练数据即可植入后门,并提出“污染扫描器”(P-Scanner)作为防御策略,利用大型语言模型检测被污染的数据。
本研究提出了一种名为“寄生虫”的后门攻击框架,针对扩散模型在图像生成中的脆弱性。该方法利用隐写术隐藏触发器,实验表明其对主流防御框架的检测率为0。
本研究提出了一种新方法FLBuff,以保护联邦学习在非独立同分布环境下免受后门攻击。研究表明,非独立同分布特征使良性和恶性更新难以区分,而FLBuff通过对比学习创建缓冲层,有效提升了防御效果。
本研究提出了一种新框架,能够有效检测深度学习中的后门攻击,尤其在数据有限的情况下。该框架通过推理搜索生成候选触发器,优化攻击成功率,成功识别多种模型和数据集中的后门攻击,表现接近完美。
该研究提出了一种新型攻击方法SCLBA,针对图卷积网络(GCNs)的标签和语义后门攻击。通过重要性分析选择节点作为触发器,成功创建有毒样本,攻击成功率接近99%。
本研究提出FreqBack方法,针对深度神经网络时间序列分类模型的后门攻击,通过频域分析生成触发器,成功率超过90%,对模型准确率的影响小于3%。
本研究提出了名为AnywhereDoor的创新方法,解决了单目标后门攻击在动态推理中的适应性问题。该方法通过目标分离、触发马赛克和策略批处理,实现了多目标后门攻击,成功率提高了26%。
本研究揭示了多语言大语言模型中的跨语言后门攻击(X-BAT)问题,表明攻击者可以通过单一语言的数据投毒,利用稀有标记作为触发器,威胁多语言系统的安全性。
本研究提出了统一防御机制UniGuardian,有效应对大型语言模型(LLMs)面临的提示注入、后门攻击和对抗攻击问题,显著提升了对恶意提示的识别准确性和效率。
完成下面两步后,将自动完成登录并继续当前操作。