💡
原文英文,约500词,阅读约需2分钟。
📝
内容提要
OpenAI推出公共安全漏洞赏金计划,旨在识别AI滥用和安全风险,重点关注代理风险、信息泄露和账户完整性问题。研究人员可申请参与,共同维护安全的AI生态系统。
🎯
关键要点
-
OpenAI推出公共安全漏洞赏金计划,旨在识别AI滥用和安全风险。
-
该计划关注代理风险、信息泄露和账户完整性问题。
-
研究人员可以申请参与,共同维护安全的AI生态系统。
-
新计划将补充OpenAI的安全漏洞赏金计划,接受不符合安全漏洞标准但仍存在风险的问题。
-
代理风险包括第三方提示注入和数据外泄,需至少50%的可重现性。
-
报告必须表明潜在的实际危害,且遵守第三方服务条款。
-
涉及OpenAI专有信息的模型生成和漏洞也在关注范围内。
-
账户和平台完整性漏洞包括绕过反自动化控制和操纵账户信任信号等问题。
-
研究人员可通过安全漏洞赏金计划申请参与,期待与安全社区合作。
❓
延伸问答
OpenAI的安全漏洞赏金计划主要关注哪些风险?
该计划主要关注代理风险、信息泄露和账户完整性问题。
研究人员如何参与OpenAI的安全漏洞赏金计划?
研究人员可以通过申请参与OpenAI的安全漏洞赏金计划,与安全社区合作。
什么是代理风险,OpenAI对此有何关注?
代理风险包括第三方提示注入和数据外泄,需至少50%的可重现性,OpenAI对此表示关注。
OpenAI的安全漏洞赏金计划与之前的计划有何不同?
新计划将补充OpenAI的安全漏洞赏金计划,接受不符合安全漏洞标准但仍存在风险的问题。
报告中需要包含哪些内容才能被接受?
报告必须表明潜在的实际危害,并遵守第三方服务条款。
哪些问题不在OpenAI安全漏洞赏金计划的范围内?
一般内容政策绕过且没有可证明的安全或滥用影响的问题不在该计划范围内。
➡️