vLLM 曝出 CVSS 9.8 高危远程代码执行漏洞,AI 服务器面临攻击风险
💡
原文中文,约900字,阅读约需2分钟。
📝
内容提要
研究人员发现大型语言模型vLLM存在高危漏洞CVE-2025-47277,源于PyNcclPipe的不安全反序列化,CVSS评分为9.8。攻击者可利用恶意对象执行任意命令,完全控制服务器。建议用户升级至vLLM v0.8.5以降低风险。
🎯
关键要点
- 研究人员发现大型语言模型vLLM存在高危漏洞CVE-2025-47277,CVSS评分为9.8。
- 漏洞源于PyNcclPipe的不安全反序列化,可能导致远程代码执行(RCE)。
- vLLM是由加州大学伯克利分校开发的开源项目,支持分布式部署和KV缓存管理。
- 漏洞存在于PyNcclPipe类中,使用pickle模块进行数据序列化和反序列化。
- 攻击者可通过发送恶意对象执行任意命令,完全控制服务器。
- 问题与PyTorch的TCPStore绑定行为有关,默认监听所有网络接口。
- 建议用户立即升级至vLLM v0.8.5以降低风险。
❓
延伸问答
vLLM的高危漏洞是什么?
vLLM存在一个编号为CVE-2025-47277的高危漏洞,CVSS评分为9.8,源于PyNcclPipe的不安全反序列化。
攻击者如何利用vLLM的漏洞?
攻击者可以通过向运行的PyNcclPipe服务发送恶意对象,执行任意系统命令,从而完全控制服务器。
vLLM的漏洞源于什么技术缺陷?
漏洞源于PyNcclPipe类中使用pickle模块进行不安全的反序列化。
如何降低vLLM漏洞带来的风险?
建议用户立即升级至vLLM v0.8.5版本,以降低风险。
vLLM是由哪个机构开发的?
vLLM最初由加州大学伯克利分校的Sky Computing实验室开发。
PyTorch的TCPStore行为与vLLM漏洞有什么关系?
PyTorch的TCPStore默认行为是监听所有网络接口,这与vLLM的漏洞存在直接关系。
➡️