OpenAI透露更多关于与五角大楼协议的细节
Source: TechCrunch
背景
在 Anthropic 与五角大楼的谈判破裂后,唐纳德·特朗普总统指示联邦机构在六个月的过渡期后停止使用 Anthropic 的技术,国防部长皮特·赫格塞特将该 AI 公司列为供应链风险。
OpenAI 与国防部的协议
OpenAI 迅速宣布已达成自己的协议,允许模型在机密环境中部署。公司发布了一篇博客文章,概述了其做法,并指出了 OpenAI 模型不能使用的三个领域:
- 大规模国内监视
- 自动化武器系统
- 高风险自动决策(例如“社会信用”系统)
OpenAI 辩称,与其他“削减或移除安全防护并主要依赖使用政策”的 AI 公司不同,其协议通过“一种更广泛的、多层次的方法”来保护这些红线。
“我们对安全堆栈拥有完全的自主权,部署通过云端进行,经过审查的 OpenAI 人员参与其中,并且我们拥有强有力的合同保护,”博客写道。“这还在美国法律已有的强大保护之上。”
文章补充道:“我们不知道 Anthropic 为什么无法达成此协议,我们希望他们以及更多实验室能够考虑此方案。”
安全保障与部署架构
OpenAI 的国家安全合作负责人 Katrina Mulligan 强调,部署架构比合同条款更为关键。通过将部署限制在云 API 上,OpenAI 能确保其模型无法直接集成到武器系统、传感器或其他作战硬件中。
批评与回应
Techdirt 的 Mike Masnick 声称该协议“绝对允许国内监视”,因为它规定私人数据的收集将遵守行政命令 12333(以及其他法律)。Masnick 将该命令描述为“NSA 通过在美国境外截获通信来隐藏其国内监视,即使这些信息涉及美国人。”
在 LinkedIn 帖子中,Mulligan 认为围绕合同语言的讨论假设“阻止美国人遭受大规模国内监视和自动化武器使用的唯一因素是与战争部签订的单一合同中的单一使用政策条款”。她反驳道:“部署架构比合同语言更重要……通过将我们的部署限制在云 API 上,我们可以确保我们的模型无法直接集成到武器系统、传感器或其他作战硬件中。”
Altman 在 X 上回答提问时承认该协议仓促,并指出因此引发的强烈反弹。他承认协议的快速达成导致了批评,包括在争议后不久,Anthropic 的 Claude 在 Apple App Store 上超越 OpenAI 的 ChatGPT。
“我们真的想要降温,我们认为提供的协议是好的,”Altman 说。“如果我们是对的,这确实会在战争部和行业之间实现降温,我们将被视为天才……如果不是,我们仍将被贴上……仓促且不谨慎的标签。”
行业影响
这场争议凸显了 AI 实验室在政府合同上的不同做法,并提出了关于透明度、安全保障以及部署架构在防止高级 AI 模型被滥用方面的角色的疑问。