💡
原文英文,约500词,阅读约需2分钟。
📝
内容提要
OpenAI推出公共安全漏洞赏金计划,旨在识别AI滥用和安全风险,重点关注代理风险、信息泄露和账户完整性问题。研究人员可申请参与,共同维护安全的AI生态系统。
🎯
关键要点
- OpenAI推出公共安全漏洞赏金计划,旨在识别AI滥用和安全风险。
- 该计划关注代理风险、信息泄露和账户完整性问题。
- 研究人员可以申请参与,共同维护安全的AI生态系统。
- 新计划将补充OpenAI的安全漏洞赏金计划,接受不符合安全漏洞标准但仍存在风险的问题。
- 代理风险包括第三方提示注入和数据外泄,需至少50%的可重现性。
- 报告必须表明潜在的实际危害,且遵守第三方服务条款。
- 涉及OpenAI专有信息的模型生成和漏洞也在关注范围内。
- 账户和平台完整性漏洞包括绕过反自动化控制和操纵账户信任信号等问题。
- 研究人员可通过安全漏洞赏金计划申请参与,期待与安全社区合作。
❓
延伸问答
OpenAI的安全漏洞赏金计划主要关注哪些风险?
该计划主要关注AI滥用和安全风险,包括代理风险、信息泄露和账户完整性问题。
研究人员如何参与OpenAI的安全漏洞赏金计划?
研究人员可以通过申请参与OpenAI的安全漏洞赏金计划,与安全社区合作。
什么是代理风险,OpenAI如何定义它?
代理风险包括第三方提示注入和数据外泄,需至少50%的可重现性。
OpenAI的安全漏洞赏金计划与其他计划有什么不同?
该计划接受不符合安全漏洞标准但仍存在风险的问题,补充了OpenAI的安全漏洞赏金计划。
报告中需要包含哪些内容才能被接受?
报告必须表明潜在的实际危害,并遵守第三方服务条款。
OpenAI如何处理提交的安全漏洞报告?
提交的报告将由OpenAI的安全和安全漏洞赏金团队进行分类,并可能根据范围和所有权重新分配。
➡️