一种新型安全漏洞“模型命名空间复用”被发现,攻击者可劫持谷歌和微软平台上的AI模型。该漏洞源于模型名称可被重新注册,开发者删除账户后,攻击者可上传恶意模型,导致系统下载不可信版本。专家建议开发者固定模型版本并加强验证机制。
黑客在HuggingFace上传恶意AI模型,成功绕过安全检测,连接硬编码IP地址以收集开发者信息。研究人员发现该模型使用7z格式压缩,提醒用户下载时需谨慎,选择认证发布者。
JFrog发现了至少100个恶意AI ML模型实例,存在数据泄露和间谍攻击的重大风险。尽管有安全措施,但这些模型可以在受害者的机器上执行代码,为攻击者提供持久的后门。JFrog开发了先进的扫描系统来检测这些恶意模型,并发现其中一些具有有害的负载。这一发现凸显了保护生态系统免受恶意行为者的重要性,并提高了对AI ML模型安全风险的认识。
完成下面两步后,将自动完成登录并继续当前操作。