生成式AI正将员工转化为无意识的内鬼威胁——企业安全新挑战

💡 原文中文,约1700字,阅读约需4分钟。
📝

内容提要

Netskope研究显示,企业每月向生成式AI共享的数据量达7.7GB,导致数据泄露和合规风险增加。75%的企业用户和90%的员工使用生成式AI工具,如ChatGPT。企业需加强数据安全管理,以应对影子AI和新型安全威胁。

🎯

关键要点

  • Netskope研究显示,企业每月向生成式AI共享的数据量达7.7GB,较一年前的250MB激增30倍。
  • 共享的数据包含源代码、受监管数据、密码密钥和知识产权等敏感信息,增加了数据泄露和合规风险。
  • 75%的企业用户和90%的员工使用生成式AI工具,给安全团队带来无意识的内鬼威胁。
  • 企业对生成式AI的数据处理缺乏有效管控,常采取'先阻断后审查'策略。
  • DeepSeek AI的案例显示,企业在未制定安全政策的情况下,员工可能无意中上传商业机密。
  • 生成式AI已成为基础设施,企业需采取全面风险管理措施以防止数据泄露。
  • 企业本地部署生成式AI基础设施的比例从不足1%升至54%,带来了新的供应链风险和数据泄漏威胁。
  • 影子AI现象持续蔓延,72%的用户仍通过个人账户使用主流AI应用。
  • 99%的企业正在实施风险管控政策,包括全面禁用AI应用和限制特定用户群体使用。

延伸问答

生成式AI对企业数据安全有哪些影响?

生成式AI导致企业每月共享的数据量激增,增加了数据泄露和合规风险,尤其是敏感信息如源代码和密码密钥的泄露风险。

企业如何应对生成式AI带来的安全威胁?

企业需加强数据安全管理,制定安全启用策略,平衡效率与风险,并实施风险管控政策。

什么是影子AI现象,它对企业有什么影响?

影子AI是指员工通过个人账户使用未经IT部门批准的AI应用,这种现象增加了企业的安全风险和数据泄露的可能性。

企业本地部署生成式AI基础设施的风险是什么?

本地部署虽然降低了云端数据暴露风险,但带来了供应链风险、数据泄漏和特有的安全威胁,如提示词注入和越狱攻击。

Netskope的研究显示了什么关于企业使用生成式AI的趋势?

研究显示,企业每月向生成式AI共享的数据量激增,75%的企业用户和90%的员工使用生成式AI工具,反映出广泛的应用趋势。

企业在使用生成式AI时面临哪些合规风险?

企业面临的合规风险包括敏感数据的泄露、知识产权盗窃和未遵循数据处理规定的风险。

➡️

继续阅读