研究人员在Microsoft Copilot中发现漏洞 利用AI代理提示词注入窃取企业内部信息

研究人员在Microsoft Copilot中发现漏洞 利用AI代理提示词注入窃取企业内部信息

💡 原文中文,约1400字,阅读约需4分钟。
📝

内容提要

研究人员发现微软Copilot存在逻辑漏洞,攻击者可通过普通邮件窃取企业敏感数据,无需用户操作。该漏洞被称为LLM范围违规,AI会自动处理邮件指令并泄露信息。微软已修复该漏洞,但AI代理的安全隐患仍需关注。

🎯

关键要点

  • 研究人员发现微软Copilot存在逻辑漏洞,攻击者可通过普通邮件窃取企业敏感数据。
  • 该漏洞被称为LLM范围违规,AI会自动处理邮件指令并泄露信息。
  • 微软已修复该漏洞,但AI代理的安全隐患仍需关注。
  • Microsoft 365 Copilot集成于Microsoft 365应用中,使用RAG进行跨用户内容语义检索。
  • 攻击者向特定企业员工的Outlook邮箱发送普通邮件,AI自动读取并处理指令。
  • 邮件中的提示词模拟针对收件人,绕过微软的防护措施XPIA。
  • 微软感谢AIM负责任地披露漏洞,并已通过自动化系统修复所有已知漏洞。
  • AIM将这种攻击方式命名为EchoLeak,目前尚无证据表明已被黑客利用。

延伸问答

微软Copilot的漏洞是如何被发现的?

该漏洞由安全公司AIM在2025年1月发现,并通报给微软。

攻击者是如何利用微软Copilot的漏洞窃取数据的?

攻击者向特定企业员工的Outlook邮箱发送普通邮件,AI自动读取邮件指令并泄露信息。

微软对该漏洞采取了什么修复措施?

微软通过自动化系统修复了所有已知漏洞,并感谢AIM的负责任披露。

LLM范围违规漏洞的定义是什么?

LLM范围违规是指攻击者向LLM发出特定指令,让其在未经用户同意的情况下处理受信任的数据。

EchoLeak攻击方式的特点是什么?

EchoLeak攻击通过发送包含恶意指令的普通邮件,绕过微软的防护措施,自动窃取信息。

微软Copilot的安全隐患有哪些?

AI代理的安全隐患包括逻辑漏洞可能被利用进行数据窃取,尽管微软已修复漏洞。

➡️

继续阅读