研究人员发现严重AI漏洞影响Meta、Nvidia及微软推理框架
内容提要
网络安全研究人员发现Meta、Nvidia、微软等AI推理引擎存在远程代码执行漏洞,源于对ZeroMQ和Python pickle反序列化的不安全使用,影响多个框架,攻击者可执行任意代码,安全隐患严重。
关键要点
-
网络安全研究人员发现Meta、Nvidia、微软等AI推理引擎存在远程代码执行漏洞。
-
漏洞源于对ZeroMQ和Python pickle反序列化的不安全使用,影响多个框架。
-
攻击者可通过发送恶意数据执行任意代码,安全隐患严重。
-
Meta Llama大语言模型框架存在缺陷,已于去年修复。
-
Oligo Security发现多个推理框架中存在相同的不安全模式。
-
部分漏洞源于代码的直接复制粘贴,导致缺陷在代码库间传播。
-
多个漏洞编号及修复状态已列出,包括vLLM、NVIDIA TensorRT-LLM等。
-
推理引擎一旦被攻陷,攻击者可执行任意代码、提升权限、窃取模型等。
-
AI安全平台Knostic报告显示攻击者可通过JavaScript注入技术入侵开发者工作站。
-
防护建议包括禁用IDE自动运行功能、审查扩展程序等。
延伸问答
Meta、Nvidia和微软的AI推理引擎存在哪些安全漏洞?
这些引擎存在远程代码执行漏洞,源于对ZeroMQ和Python pickle反序列化的不安全使用。
这些漏洞的根本原因是什么?
漏洞源于对ZeroMQ和Python pickle反序列化的不安全使用,导致不安全逻辑在多个项目中传播。
攻击者如何利用这些漏洞?
攻击者可以通过发送恶意数据执行任意代码,提升权限或窃取模型等。
有哪些推理框架受到影响?
受影响的框架包括NVIDIA TensorRT-LLM、Microsoft Sarathi-Serve、Modular Max Server、vLLM和SGLang等。
如何防护这些安全漏洞?
防护建议包括禁用IDE自动运行功能、审查扩展程序和监控服务器访问的数据等。
这些漏洞的修复状态如何?
部分漏洞已修复,部分仍未修复,具体情况包括CVE编号和修复版本。