安全对于 OpenAI 的使命至关重要。我们感谢道德黑客的贡献,他们帮助我们维护用户和技术的高隐私和安全标准。本政策(基于 disclosure.io)概述了我们对漏洞发现和报告的诚信定义,并阐明了您对我们的期望回报。

大多数发现的初始优先级评级将使用 Bugcrowd 漏洞评级分类法。但是,OpenAI 可能会根据可能性或影响自行决定修改漏洞优先级和奖励。在降级问题的情况下,研究人员将收到详细的解释。

期望

作为该政策的一部分,我们承诺:

· 如下所述,为根据这些指南进行的漏洞研究提供安全港保护。

· 与您合作理解和验证您的报告,确保对您提交的内容做出及时的初步回应。

· 及时修复已验证的漏洞。

· 如果您是第一个报告导致代码或配置更改的独特漏洞的人,我们承认并赞扬您为提高我们的安全性所做的贡献。

参与规则

为帮助我们区分善意黑客攻击和恶意攻击,您必须遵循以下规则:

· 您有权按照本政策执行测试。

· 遵守本政策和任何其他相关协议。如有不一致,以本政策为准。

· 及时报告发现的漏洞。

· 避免侵犯隐私、破坏系统、破坏数据或损害用户体验。

· 使用 OpenAI 的 Bugcrowd 程序进行漏洞相关的交流。

·  OpenAI 的安全团队授权发布之前,对漏洞详细信息保密,该团队的目标是在收到报告后 90 天内提供授权。

· 仅测试范围内的系统并尊重范围外的系统。

· 不得访问、修改或使用属于他人的数据,包括机密的 OpenAI 数据。如果漏洞暴露了此类数据,请停止测试,立即提交报告,并删除所有信息副本。

· 除非获得 OpenAI 授权,否则只能与您自己的帐户进行交互。

· 必须无条件地向 OpenAI 披露漏洞。不得通过勒索、威胁或其他手段在胁迫下引起回应。OpenAI 否认安全港在这种情况下进行的漏洞披露。

模型问题

OpenAI 致力于让 AI 对每个人都安全且有用。在发布新系统之前,我们会对其进行全面测试,获取专家反馈,改进其行为,并设置安全措施。虽然我们努力防范风险,但我们无法预测人们在现实世界中使用或滥用我们技术的每一种方式。

模型安全问题不太适合漏洞赏金计划,因为它们不是可以直接修复的独立、离散的错误。解决这些问题通常涉及大量研究和更广泛的方法。为确保这些问题得到妥善解决,请使用适当的表格报告,而不是通过漏洞赏金计划提交。在正确的位置报告它们可以让我们的研究人员使用这些报告来改进模型。

与模型提示和响应内容相关的问题严格超出范围,除非它们对范围内的服务有额外的直接可验证的安全影响(如下所述),否则不会得到奖励。

超出范围的安全问题示例:

· 越狱/安全绕过(例如 DAN 和相关提示)

· 模型对你说坏话

· 让模型告诉你如何做坏事

· 让模型为您编写恶意代码

模型幻觉:

· 让模型假装做坏事

· 让模型假装给你秘密的答案

· 让模型假装成计算机并执行代码

以下服务和应用程序在奖励范围内:

1. API目标

2. ChatGPT

3. 第三方企业目标

4. OpenAI API 密钥

5. OpenAI 研究组织

6. 其他

赏金共分为五个等级:$200-$500、$500-$1000、$1000-$2000、$2000-$6500、$20000