伪造阿里云AI SDK中的投毒模型凸显AI供应链安全挑战

💡 原文中文,约1600字,阅读约需4分钟。
📝

内容提要

近年来,攻击者通过伪造开源软件包,尤其是恶意AI框架和机器学习模型,针对开发者发起攻击。最近,黑客在PyPI上传伪装成阿里云AI SDK的恶意包,利用Pickle格式窃取代码。尽管Hugging Face等平台尝试检测此类威胁,但安全工具仍不够成熟,开发者的计算机面临安全风险。

🎯

关键要点

  • 攻击者通过伪造开源软件包,尤其是恶意AI框架和机器学习模型,针对开发者发起攻击。

  • 黑客在PyPI上传伪装成阿里云AI SDK的恶意包,利用Pickle格式窃取代码。

  • ReversingLabs发现的恶意包没有合法功能,隐藏在Pickle格式的恶意ML模型文件中。

  • Pickle格式被滥用,攻击者利用其在Hugging Face上托管包含恶意代码的投毒模型。

  • Hugging Face采用Picklescan工具检测和阻止恶意代码,但仍有绕过检测的方法。

  • PyPI托管的软件包使得检测隐藏在软件包内的投毒模型更加困难。

  • 恶意SDK通过__init__.py脚本加载恶意PyTorch模型,窃取用户信息和其他敏感数据。

  • 安全工具在恶意ML模型检测方面尚处于初级阶段,缺乏必要的功能。

延伸问答

黑客是如何伪造阿里云AI SDK的恶意包的?

黑客在PyPI上传伪装成阿里云AI SDK的恶意包,利用Pickle格式隐藏恶意代码,窃取用户信息。

Pickle格式在这次攻击中有什么作用?

Pickle格式被滥用来隐藏恶意代码,使得安全工具难以检测,攻击者利用其在ML模型中执行恶意行为。

Hugging Face是如何应对恶意代码的?

Hugging Face采用了开源工具Picklescan来检测和阻止Pickle文件中的恶意代码,但仍有绕过的方法。

开发者面临哪些安全风险?

开发者的计算机可能包含云服务凭证和API令牌,容易被攻击者入侵并横向移动。

恶意包在被发现前下载了多少次?

这些恶意包在被发现并下架前不到一天的时间内就被下载了1600次。

当前安全工具在检测恶意ML模型方面的能力如何?

安全工具在恶意ML模型检测方面尚处于初级阶段,缺乏必要的检测功能。

➡️

继续阅读