生成式AI正将员工转化为无意识的内鬼威胁——企业安全新挑战
💡
原文中文,约1700字,阅读约需4分钟。
📝
内容提要
Netskope研究显示,企业每月向生成式AI共享的数据量达7.7GB,导致数据泄露和合规风险增加。75%的企业用户和90%的员工使用生成式AI工具,如ChatGPT。企业需加强数据安全管理,以应对影子AI和新型安全威胁。
🎯
关键要点
- Netskope研究显示,企业每月向生成式AI共享的数据量达7.7GB,较一年前的250MB激增30倍。
- 共享的数据包含源代码、受监管数据、密码密钥和知识产权等敏感信息,增加了数据泄露和合规风险。
- 75%的企业用户和90%的员工使用生成式AI工具,给安全团队带来无意识的内鬼威胁。
- 企业对生成式AI的数据处理缺乏有效管控,常采取'先阻断后审查'策略。
- DeepSeek AI的案例显示,企业在未制定安全政策的情况下,员工可能无意中上传商业机密。
- 生成式AI已成为基础设施,企业需采取全面风险管理措施以防止数据泄露。
- 企业本地部署生成式AI基础设施的比例从不足1%升至54%,带来了新的供应链风险和数据泄漏威胁。
- 影子AI现象持续蔓延,72%的用户仍通过个人账户使用主流AI应用。
- 99%的企业正在实施风险管控政策,包括全面禁用AI应用和限制特定用户群体使用。
❓
延伸问答
生成式AI对企业数据安全有哪些影响?
生成式AI导致企业每月共享的数据量激增,增加了数据泄露和合规风险,尤其是敏感信息如源代码和密码密钥的泄露风险。
企业如何应对生成式AI带来的安全威胁?
企业需加强数据安全管理,制定安全启用策略,平衡效率与风险,并实施风险管控政策。
什么是影子AI现象,它对企业有什么影响?
影子AI是指员工通过个人账户使用未经IT部门批准的AI应用,这种现象增加了企业的安全风险和数据泄露的可能性。
企业本地部署生成式AI基础设施的风险是什么?
本地部署虽然降低了云端数据暴露风险,但带来了供应链风险、数据泄漏和特有的安全威胁,如提示词注入和越狱攻击。
Netskope的研究显示了什么关于企业使用生成式AI的趋势?
研究显示,企业每月向生成式AI共享的数据量激增,75%的企业用户和90%的员工使用生成式AI工具,反映出广泛的应用趋势。
企业在使用生成式AI时面临哪些合规风险?
企业面临的合规风险包括敏感数据的泄露、知识产权盗窃和未遵循数据处理规定的风险。
➡️