开源AI/ML模型曝出30余个漏洞,可能导致远程代码执行与信息窃取风险

💡 原文中文,约2000字,阅读约需5分钟。
📝

内容提要

开源AI和机器学习模型中发现三十多个安全漏洞,部分漏洞可能导致远程代码执行和信息泄露。严重漏洞包括Lunary的IDOR和访问控制问题,以及ChuanhuChatGPT的路径遍历漏洞。Protect AI推出了静态代码分析器Vulnhuntr,以识别Python代码中的安全问题。

🎯

关键要点

  • 开源AI和机器学习模型中发现三十多个安全漏洞,部分可能导致远程代码执行和信息泄露。
  • 严重漏洞包括Lunary的IDOR和访问控制问题,以及ChuanhuChatGPT的路径遍历漏洞。
  • Lunary的CVE-2024-7474和CVE-2024-7475漏洞允许未经授权的数据访问和敏感信息泄露。
  • ChuanhuChatGPT的路径遍历漏洞可能导致任意代码执行和敏感数据暴露。
  • LocalAI发现的两个漏洞可能允许恶意行为者执行任意代码和猜测有效的API密钥。
  • Protect AI推出了静态代码分析器Vulnhuntr,用于识别Python代码中的安全问题。
  • Vulnhuntr通过将代码分解成小块来标记潜在的安全问题,确保不影响LLM上下文窗口。
  • Mozilla的0Day调查网络发现新越狱技术,利用十六进制格式和表情符号编码绕过OpenAI ChatGPT的防护措施。
  • 语言模型缺乏深入的上下文意识,可能导致安全漏洞的产生。
➡️

继续阅读