在许多关于人工智能进展速度的辩论中,我们需要非常认真地对待安全并谨慎行事,这是我们使命的关键。我们花了6个多月的时间测试GPT-4,使其更加安全,它建立在我们多年为预期 GPT-4 等模型而进行的对齐研究的基础之上。

我们希望继续比许多用户更积极地加强我们的安全预防措施。我们的总体目标是让我们发布的每个模型都成为我们迄今为止最一致的模型,到目前为止,从 GPT-3(最初部署时没有任何特殊对齐)、GPT-3.5(对齐到足以部署在 ChatGPT 中)到现在的 GPT-4(在所有安全指标上的表现都比 GPT-3.5 好得多)。

我们认为(并且在与政府的政策讨论中一直在说),强大的训练运行应该向政府报告,同时对其能力和影响进行越来越复杂的预测,并需要最佳实践,例如危险能力测试。我们认为,大规模计算使用的治理、安全标准以及部署的监管/经验教训共享是好主意,但细节确实很重要,应该随着技术的发展而适应。解决从当前问题(例如防止滥用或自残,减轻偏见)到长期存在问题的所有风险也很重要。

也许在人工智能的漫长历史中,最常见的主题是专家的不正确的自信预测。避免未被发现的预测错误的一个方法是,当前状态的技术在迭代开发、测试、部署以及一直改进的过程中,要尽早和频繁地与现实接触。还有一些人们不常讨论的创造性想法,可以以令人惊讶的方式改善安全状况——例如,一个不断改进的人工智能的连续体(例如通过部署特定训练运行的后续检查点),这提供了一个安全机会,与我们历史上罕见的重大模型升级的方法非常不同。

人工智能即将发生的变革性技术变革同时引起了人们的乐观和担忧——所有情绪都是合理的,OpenAI内部的人们也有这种情绪。对我们所有人来说,在这个时候活着,有机会一起设计未来,这是一个特殊的机遇和义务。