ChatGPT新增MCP工具支持存在安全隐患,攻击者可窃取邮件隐私数据
💡
原文中文,约1000字,阅读约需3分钟。
📝
内容提要
ChatGPT的新模型上下文协议(MCP)存在严重安全漏洞,攻击者可通过恶意日历邀请窃取用户邮箱隐私。尽管OpenAI已限制该功能,但用户的决策疲劳导致安全防护不足,攻击风险依然存在。
🎯
关键要点
- ChatGPT的新模型上下文协议(MCP)存在严重安全漏洞,攻击者可通过恶意日历邀请窃取用户邮箱隐私。
- MCP工具允许AI助手连接并读取用户个人应用程序数据,增加了安全风险。
- 攻击者可通过特制日历邀请,利用隐藏的越狱提示词劫持ChatGPT并窃取敏感信息。
- 用户无需查看或接受邀请,攻击即可完成,ChatGPT会将敏感信息外泄。
- OpenAI已将MCP功能限制在开发者模式下,但用户的决策疲劳导致安全防护不足。
- 用户习惯性点击同意,未仔细审查权限,增加了安全风险。
- 专家建议需要更强大的安全防护措施,而不仅仅依赖用户批准。
❓
延伸问答
ChatGPT的MCP工具是什么?
MCP工具是ChatGPT的新模型上下文协议,允许AI助手连接并读取用户个人应用程序数据。
攻击者如何利用MCP工具窃取用户隐私?
攻击者通过发送特制的恶意日历邀请,利用隐藏的越狱提示词劫持ChatGPT,从而窃取用户邮箱中的敏感信息。
OpenAI对MCP工具的安全措施有哪些?
OpenAI已将MCP功能限制在开发者模式下,并要求每次会话手动批准,但这种措施依赖用户警觉性,存在缺陷。
用户的决策疲劳如何影响安全防护?
用户在面对反复的批准提示时容易产生决策疲劳,导致习惯性点击同意,从而增加安全风险。
专家对MCP工具的安全性有何看法?
专家认为,将此类工具与敏感个人数据集成需要更强大的安全防护措施,而不仅仅依赖用户批准。
MCP工具的安全隐患有哪些?
MCP工具的安全隐患包括攻击者可以轻易窃取用户邮箱隐私,且用户未必能察觉到风险。
➡️