vLLM 曝出 CVSS 9.8 高危远程代码执行漏洞,AI 服务器面临攻击风险

💡 原文中文,约900字,阅读约需2分钟。
📝

内容提要

研究人员发现大型语言模型vLLM存在高危漏洞CVE-2025-47277,源于PyNcclPipe的不安全反序列化,CVSS评分为9.8。攻击者可利用恶意对象执行任意命令,完全控制服务器。建议用户升级至vLLM v0.8.5以降低风险。

🎯

关键要点

  • 研究人员发现大型语言模型vLLM存在高危漏洞CVE-2025-47277,CVSS评分为9.8。
  • 漏洞源于PyNcclPipe的不安全反序列化,可能导致远程代码执行(RCE)。
  • vLLM是由加州大学伯克利分校开发的开源项目,支持分布式部署和KV缓存管理。
  • 漏洞存在于PyNcclPipe类中,使用pickle模块进行数据序列化和反序列化。
  • 攻击者可通过发送恶意对象执行任意命令,完全控制服务器。
  • 问题与PyTorch的TCPStore绑定行为有关,默认监听所有网络接口。
  • 建议用户立即升级至vLLM v0.8.5以降低风险。

延伸问答

vLLM的高危漏洞是什么?

vLLM存在一个编号为CVE-2025-47277的高危漏洞,CVSS评分为9.8,源于PyNcclPipe的不安全反序列化。

攻击者如何利用vLLM的漏洞?

攻击者可以通过向运行的PyNcclPipe服务发送恶意对象,执行任意系统命令,从而完全控制服务器。

vLLM的漏洞源于什么技术缺陷?

漏洞源于PyNcclPipe类中使用pickle模块进行不安全的反序列化。

如何降低vLLM漏洞带来的风险?

建议用户立即升级至vLLM v0.8.5版本,以降低风险。

vLLM是由哪个机构开发的?

vLLM最初由加州大学伯克利分校的Sky Computing实验室开发。

PyTorch的TCPStore行为与vLLM漏洞有什么关系?

PyTorch的TCPStore默认行为是监听所有网络接口,这与vLLM的漏洞存在直接关系。

➡️

继续阅读