研究人员发现严重AI漏洞影响Meta、Nvidia及微软推理框架

💡 原文中文,约1900字,阅读约需5分钟。
📝

内容提要

网络安全研究人员发现Meta、Nvidia、微软等AI推理引擎存在远程代码执行漏洞,源于对ZeroMQ和Python pickle反序列化的不安全使用,影响多个框架,攻击者可执行任意代码,安全隐患严重。

🎯

关键要点

  • 网络安全研究人员发现Meta、Nvidia、微软等AI推理引擎存在远程代码执行漏洞。

  • 漏洞源于对ZeroMQ和Python pickle反序列化的不安全使用,影响多个框架。

  • 攻击者可通过发送恶意数据执行任意代码,安全隐患严重。

  • Meta Llama大语言模型框架存在缺陷,已于去年修复。

  • Oligo Security发现多个推理框架中存在相同的不安全模式。

  • 部分漏洞源于代码的直接复制粘贴,导致缺陷在代码库间传播。

  • 多个漏洞编号及修复状态已列出,包括vLLM、NVIDIA TensorRT-LLM等。

  • 推理引擎一旦被攻陷,攻击者可执行任意代码、提升权限、窃取模型等。

  • AI安全平台Knostic报告显示攻击者可通过JavaScript注入技术入侵开发者工作站。

  • 防护建议包括禁用IDE自动运行功能、审查扩展程序等。

延伸问答

Meta、Nvidia和微软的AI推理引擎存在哪些安全漏洞?

这些引擎存在远程代码执行漏洞,源于对ZeroMQ和Python pickle反序列化的不安全使用。

这些漏洞的根本原因是什么?

漏洞源于对ZeroMQ和Python pickle反序列化的不安全使用,导致不安全逻辑在多个项目中传播。

攻击者如何利用这些漏洞?

攻击者可以通过发送恶意数据执行任意代码,提升权限或窃取模型等。

有哪些推理框架受到影响?

受影响的框架包括NVIDIA TensorRT-LLM、Microsoft Sarathi-Serve、Modular Max Server、vLLM和SGLang等。

如何防护这些安全漏洞?

防护建议包括禁用IDE自动运行功能、审查扩展程序和监控服务器访问的数据等。

这些漏洞的修复状态如何?

部分漏洞已修复,部分仍未修复,具体情况包括CVE编号和修复版本。

➡️

继续阅读