我们与战争部的协议
Source: OpenAI Blog
与五角大楼的协议
昨天我们与五角大楼达成了一项协议,允许在机密环境中部署先进的 AI 系统,并且我们要求他们也将这些系统提供给所有 AI 公司。
我们认为我们的协议比以往任何机密 AI 部署的协议(包括 Anthropic 的)都有更多的防护措施。原因如下。
我们的红线
我们有三条主要的红线来指导我们与国防部(DoW)的合作,这些红线也被其他一些前沿实验室所共享:
- 禁止使用 OpenAI 技术进行大规模国内监视。
- 禁止使用 OpenAI 技术指挥自主武器系统。
- 禁止使用 OpenAI 技术进行高风险的自动化决策(例如 “社会信用” 系统)。
其他 AI 实验室已经削减或取消了他们的安全防护措施,主要依赖使用政策作为国家安全部署的主要保障。我们认为我们的做法能更好地防止不可接受的使用。
多层次保护
在我们的协议中,我们通过更广泛的多层次方法来保护我们的红线。我们:
- 保留对安全堆栈的全部自主决定权。
- 仅通过云端部署。
- 保持已获批准的 OpenAI 人员参与。
- 包含强有力的合同保护条款。
所有这些都在美国法律已有的强大保护之上。
我们坚信民主。
鉴于这项技术的重要性,我们认为唯一正确的前进道路是 AI 事业与民主进程之间的深度合作。我们也相信我们的技术会带来新的风险,我们希望捍卫美国的人员拥有最好的工具。
Source: …
我们的协议包括
1. 部署架构
- 仅云部署,使用我们运行的安全堆栈,结合上述原则及其他措施。
- 我们 不向国防部提供“关闭防护”或未经过安全训练的模型,也不在边缘设备上部署我们的模型(因为那可能被用于自主致命武器)。
- 我们的部署架构使我们能够 独立验证这些红线未被跨越,包括运行和更新分类器。
2. 合同语言
国防部可在所有合法用途下使用该 AI 系统,符合适用法律、作战需求以及成熟的安全与监督协议。
在任何法律、法规或部委政策要求人为控制的情况下,AI 系统 不得用于独立指挥自主武器,也不得用于其他需要人为决策者批准的高风险决策,且适用相同的授权。
根据《国防部指令 3000.09》(2023 年 1 月 25 日版),任何在自主或半自主系统中使用的 AI 必须经过严格的验证、确认和测试,以确保其在真实环境中按预期运行后方可部署。对于情报活动,任何对私人信息的处理都必须遵守《第四修正案》、1947 年《国家安全法》、1978 年《外国情报监视法》、第 12333 号行政命令以及要求明确的外国情报目的的相关国防部指令。AI 系统 不得用于对美国公民私人信息的无限制监控,以符合上述授权。系统亦 不得用于国内执法活动,除非《平民管制法案》及其他适用法律允许。
3. AI 专家参与
我们将安排 已获安全许可的前线部署 OpenAI 工程师 为政府提供帮助,并让已获许可的安全与对齐研究员参与其中。
FAQ
为什么要这么做?
- 美国军方需要强大的 AI 模型来支持其任务,尤其是在对手将 AI 融入其系统的威胁日益增长的背景下。
- 我们最初没有签署机密部署合同,因为我们的防护措施和系统尚未准备好。此后我们努力确保在保持红线完整的防护措施的前提下,能够进行机密部署。
- 我们仍然不愿意为了提升国家安全工作性能而移除关键技术防护措施——这不是支持美国军方的正确方式。
- 我们也希望缓和国防部(DoW)与美国 AI 实验室之间的紧张关系。美好的未来需要政府与 AI 实验室之间真正、深入的合作。作为我们协议的一部分,我们要求将相同的条款提供给所有 AI 实验室,并让政府尝试解决与 Anthropic 的问题;当前的状态是开启下一阶段合作的极差方式。
为什么你们能达成协议,而 Anthropic 却不能?你们签了他们不愿签的协议吗?
根据我们所知,我们的合同提供了更好的保证和更负责任的防护措施,优于之前的协议,包括 Anthropic 最初的合同。我们的红线更具可执行性,因为部署仅限于仅云端(而非边缘),我们的安全栈保持完整,且已获批准的 OpenAI 人员仍参与其中。我们不知道 Anthropic 为什么未能达成此协议,但我们希望他们以及更多实验室能够考虑此方案。
你认为 Anthropic 应该被指定为“供应链风险”吗?
不。我们已向政府明确表达了我们的立场。
这项协议会让国防部使用 OpenAI 模型来驱动自主武器吗?
不会。基于我们的安全栈、仅云端部署、合同语言以及现行的法律、法规和政策,我们确信这不可能发生。OpenAI 人员也将参与其中,以提供额外的保障。
这项协议会让国防部使用 OpenAI 模型进行大规模监视吗?
答案待定…
我们会被迫监视美国公民吗?
不会。基于我们的安全栈、合同语言以及严格限制国防部进行国内监视的现行法律,我们确信这不可能发生。我们也会让 OpenAI 人员参与,以提供额外的保障。
你们必须在没有安全栈的情况下部署模型吗?
不会。我们保留对所部署安全栈的全部控制权,绝不会在没有安全防护的情况下部署。此外,我们的安全和对齐研究人员将参与其中,并随时间改进系统。我们知道其他 AI 实验室已降低模型防护并依赖使用政策作为主要防护,但我们认为我们的分层方法能更好地防止不可接受的使用。
如果政府违反合同条款会怎样?
和任何合同一样,如果对方违反条款,我们可以终止合同。我们不预期会出现这种情况。
如果政府修改法律或现有的 DoW 政策怎么办?
我们的合同明确引用了截至目前的监视和自主武器法律及政策,因此即使这些法律或政策将来发生变化,使用我们的系统仍必须符合协议中所反映的当前标准。
来自 Anthropic 的补充背景
在他们的帖子中,Anthropic 列出了两条他们的红线(我们也有这两条红线,另外还有第三条:自动化高风险决策),并说明他们认为这些红线在当时 DoW 提供的合同中无法得到保障。以下是我们认为这些相同红线在我们的合同中能够得到保障的原因:
- 大规模国内监视 – 在我们的互动中,DoW 明确表示大规模国内监视是非法的,并且没有计划将其用于此目的。我们确保了这一点……
在我们的合同中,合法使用的范围已明确说明。
- 全自动武器 – 我们合同中涵盖的云部署范围不允许为全自动武器提供动力,因为这需要边缘部署。
除了这些保护措施外,我们的合同还提供了额外的分层安全保障,包括我们的安全堆栈以及 OpenAI 技术专家的参与。