我们与战争部的协议

发布: (2026年3月1日 GMT+8 04:35)
7 分钟阅读

Source: Hacker News

(请提供需要翻译的正文内容,我将按照要求进行简体中文翻译并保留原有的格式。)

我们的协议包括

  1. 部署架构

    • 仅云部署,使用我们运行的安全堆栈,包括上述原则。
    • 不提供“关闭防护措施”或未经过安全训练的模型,且模型不会部署在边缘设备上(这可能导致自主致命武器)。
    • 该架构支持独立验证未越过红线,包括运行和更新分类器。
  2. 我们的合同 – 相关条款

    战争部可在所有合法目的下使用人工智能系统,符合适用法律、作战需求以及成熟的安全与监督协议。人工智能系统不得在法律、法规或部门政策要求人为控制的任何情况下独立指挥自主武器,也不得承担其他需要在人类决策者批准下进行的高风险决策。

    根据国防部指令3000.09(2023年1月25日),在自主和半自主系统中使用人工智能必须经过严格的验证、确认和测试,以确保其在真实环境中按预期运行后方可部署。

    对于情报活动,任何对私人信息的处理都必须遵守《第四修正案》、1947年《国家安全法》、1978年《外国情报监视法》、第12333号行政命令以及要求明确外国情报目的的相关国防部指令。人工智能系统不得用于对美国公民私人信息的无限制监控,须符合上述授权。系统亦不得用于国内执法活动,除非《镇压暴动法案》及其他适用法律允许。

  3. AI专家参与

    • 获得安全许可、前线部署的OpenAI工程师将协助政府。
    • 获得安全许可的安全与对齐研究人员将持续参与。

FAQ

为什么要这么做?

  • 美国军方需要强大的 AI 模型来支持其任务,以应对对手将 AI 融入作战的日益增长的威胁。
  • 我们推迟了一项机密部署合同,直至我们的安全防护措施准备就绪。
  • 我们拒绝为国家安全工作移除关键技术防护。
  • 我们旨在缓和国防部(DoW)与美国 AI 实验室之间的紧张关系,并促进深度合作。
  • 作为协议的一部分,我们要求将相同条款提供给所有 AI 实验室,并让政府解决与 Anthropic 的相关问题。

你们能达成协议,而 Anthropic 做不到?你们签了他们不愿签的协议吗?

  • 我们的合同提供了比之前协议(包括 Anthropic 的)更强的保证和更负责任的防护措施。
  • 红线更具可执行性,因为部署仅限云端,安全栈保持激活,且已获批准的 OpenAI 人员仍然参与。
  • 我们不知道 Anthropic 为什么未能达成类似的协议。

Anthropic 是否应被指定为“供应链风险”?

  • 不。我们已明确向政府传达了这一立场。

这份协议会让国防部使用 OpenAI 模型来驱动自主武器吗?

  • 不会。安全栈、仅云端部署、合同语言以及现行法律都阻止了这种情况。OpenAI 人员也会参与其中以提供额外保障。

这份协议会让国防部进行大规模监视吗?

  • 不会。合同明确禁止对美国公民私人信息进行不受约束的监控。所有部署均受上述防护措施的约束。

该协议会影响美国公民吗?

  • 不会。我们的安全栈、合同语言和现行法律对国防部进行国内监视设有严格限制。OpenAI 人员将继续参与以提供保障。

你们必须在没有安全栈的情况下部署模型吗?

  • 不会。我们保留对安全栈的完整控制,绝不会在没有安全防护的情况下部署。安全与对齐研究人员将保持参与,并随时间改进系统。

如果政府违反合同条款会怎样?

  • 若对方违约,我们可以终止合同。我们并不预期会出现此类情况。

如果政府改变法律或现有的 DoW 政策会怎样?

  • 合同引用了截至目前的监视和自主武器相关法律与政策。即使法律或政策发生变化,使用我们的系统仍必须符合协议中所体现的当前标准。

红线保护(与 Anthropic 的立场比较)

Anthropic 确定了两条红线(大规模国内监视和完全自主武器)。我们认同这两条,并新增第三条——自动化高风险决策。我们的合同坚持这些红线:

  • 大规模国内监视 – 国防部认为这非法,并且不会将其用于此目的;合同对此作了明确说明。
  • 完全自主武器 – 仅云端部署阻止了为完全自主武器提供动力,因为后者需要边缘部署。

除了这些保护措施外,我们的合同还包括层层防护,例如我们的安全栈以及 OpenAI 技术专家的参与。

0 浏览
Back to Blog

相关文章

阅读更多 »