最新报告:25%员工向ChatGPT等AI工具上传敏感数据

💡 原文中文,约1100字,阅读约需3分钟。
📝

内容提要

一项研究发现,15%的员工经常在ChatGPT上上传公司数据,其中超过四分之一的数据被认为是敏感信息,这使公司在无形中面临安全漏洞的风险。员工平均每天向生成性人工智能工具输入数据36次,这些数字预计只会增加。相当一部分GenAI用户不仅依赖提示指令,而且还会粘贴数据以尝试生成所需的文本。如何保护公司内部数据不外流,将成为每个公司都要面临的问题。

🎯

关键要点

  • 15%的员工经常在ChatGPT上上传公司数据,超过四分之一的数据被认为是敏感信息。
  • 研究分析了超过10000名员工,显示至少15%的员工在工作中使用生成性人工智能工具。
  • 员工平均每天向生成性人工智能工具输入数据36次,预计这一数字将继续增加。
  • GenAI正在成为员工日常工作流程的一部分,类似于电子邮件和其他工具。
  • 敏感信息的主要类别包括内部业务数据(43%)、源代码(31%)和个人身份信息(12%)。
  • 现有的安全解决方案无法有效应对敏感数据粘贴的风险。
  • 4%的员工每周将敏感数据粘贴到GenAI中,增加了数据外流的机会。
  • 50%的GenAI用户来自研发部门,其次是销售和营销部门。
  • 一些用户粘贴数据以生成所需文本,可能导致敏感数据暴露。
  • ChatGPT在发布后迅速积累了大量用户,活跃用户数在不断增长。
  • 44%的员工在过去3个月中使用过GenAI API,部分人每月访问次数超过50次。
  • 随着AI对生产力的提升,保护公司内部数据不外流将成为重要问题。
➡️

继续阅读