Sam Altman 在 X.com 回答有关 Pentagon Deal 与对 Anthropic 威胁 的问题
Source: Slashdot
背景
周六下午,Sam Altman 宣布他将在 X.com 上开始回答有关 OpenAI 与美国国防部合作以及过去几天发展的相关问题。
- 在国防部与 Anthropic 的谈判失败后,该机构宣布将停止使用 Anthropic 的技术,并威胁将 Anthropic 列为 “对国家安全的供应链风险”。
- 随后,国防部与 OpenAI 达成了一项协议。根据 Altman 的说法,该协议包括 OpenAI 自己对其产品用于国内大规模监视的禁令,并要求在自主武器系统使用武力时承担 “人类责任”。
Sam Altman的声明
“强制在 Anthropic 上标记 Supply‑Chain Risk 会非常糟糕,这对我们的行业、我们的国家,显然也对他们的公司不利。我们在此之前和之后都向战争部说明了这一点。我们之所以愿意快速行动,部分原因是希望实现 de‑escalation…
我们都应非常关注这一先例。明确地说:我认为这是战争部的一个非常糟糕的决定,我希望他们能够撤销。如果我们因此受到强烈批评而受到指责,那就接受吧。”
“很长一段时间,OpenAI 只计划做 non‑classified work only,但本周我们发现战争部在我们所需的方面是 flexible 的。”
Sam Altman: “加速的原因是为了尝试缓和局势。我认为当前的路径对 Anthropic、健康的竞争以及美国都是危险的。我们已谈判确保类似的条款会提供给所有其他 AI 实验室。”
“我知道被逼入绝境的感受,我认为我们应该对战争部抱有一些同情。他们是一个非常敬业、使命极其重要的团队。我无法想象自己去做他们的工作。我们的行业会告诉他们,‘我们正在构建的技术将在地缘政治冲突中成为最高位的比特。中国正在快速前进,而你们远远落后。’然后我们又说,‘但我们不会帮助你们,我们认为你们有点邪恶。’我不认为自己在那种情况下会有很好的反应。我不认为私营公司的未选举领导者应拥有与我们民主选举的政府同等的权力。但我确实认为我们需要帮助他们。”
Q&A (Answered by Sam Altman)
| Question | Answer |
|---|---|
| 您是否担心在未来可能出现的关于合法性争议中,情况会变得非常糟糕,并被视为供应链风险? | “是的,我担心。如果我们必须承担这场斗争,我们会这么做,但这显然会让我们面临一定风险。我仍然非常希望此事能得到解决,而我们之所以想快速行动,部分原因是为了提高解决的可能性。” |
| 为什么要急于签署这笔交易?显然外界的观感并不佳。 | “这确实是仓促的,外界的观感也不好。我们真的想要降级冲突,并且认为当时的交易方案是好的。如果我们是对的,这能促成国防部与行业之间的降级,我们就会像天才一样——一家为帮助行业而承担了大量痛苦的公司。如果不是,我们仍会被视为仓促且轻率。我不知道最终会怎样,但我已经看到了一些有希望的迹象。政府与开发这项技术的公司之间的良好关系在未来几年至关重要。” |
| 您认为国防部接受 OpenAI 而不接受 Anthropic 的核心区别是什么? | “我们相信分层安全方法——构建安全栈、部署 FDE(嵌入式前线部署工程师)、让我们的安全与对齐研究人员参与、通过云端部署,并直接与国防部合作。Anthropic 看起来更关注合同中的具体禁令,而不是引用适用法律,这让我们感到更舒适。构建安全系统非常重要,虽然文档也很重要,但如果只能选一样,我显然更倾向于技术防护措施。” |
| 您接受的条款是否与 Anthropic 拒绝的条款相同? | “不是,我们的条款有一些不同。但我们的条款现在可以提供给他们(以及其他人),如果他们想要的话。” |
| 如果他们违反规则,您会关闭该工具吗? | “是的,在那种极不可能的情况下我们会关闭它,但我们相信美国政府是一个尽力遵守法律和政策的机构。我们不会因为不同意某个(法律军事)决定而关闭它。我们信任他们的权威。” |
| 员工可以选择不参与国防部相关项目吗? | “如果员工不想参与国防部相关项目,我们不会强迫他们。” |
| 这笔交易价值多少? | “几百万美元,与我们 200 多亿美元的收入相比微不足道,绝对不值得因公关危机而付出代价。我们之所以这么做,是因为这是为国家正确的事,代价对我们自己很大,而不是因为收入影响。” |
| 您能明确说明 OpenAI 拥有哪些具体技术防护措施,使您能够签署 Anthropic 所称的‘对民主价值的威胁’的协议吗? | “我们认为我们达成的协议拥有的防护措施比 …” (答案在原文中被截断) |
Additional Comments
采访中还包括了 OpenAI 国家安全合作负责人(此前负责白宫对斯诺登披露的响应,并在奥巴马政府期间帮助制定后斯诺登监控政策)的意见。
“通过 OpenAI 与战争部的协议,我们控制模型的训练方式以及模型拒绝的请求类型”。
分类 AI 部署 – 合同保障 vs. 政策
我们之前关于分类 AI 部署(包括 Anthropic)的协议指出了一个关键问题:许多 AI 实验室(包括 Anthropic)已经削减或移除了安全护栏,而现在主要依赖使用政策作为国家安全环境中的唯一保障。
仅靠使用政策 并不能保证安全。在分类环境中负责任地部署 AI 应该包括 多层次的保障措施,例如:
- 谨慎的安全堆栈
- 部署架构的限制
- AI 专家直接参与关键使用案例
这些条款是我们在合同中谈判加入的。
OpenAI 的立场(在 LinkedIn 上分享)
部署架构比合同语言更重要。
我们的合同将部署限制在 云 API。自主系统需要在边缘进行推理。通过将部署限制在云 API,我们可以确保我们的模型无法直接集成到武器系统、传感器或其他作战硬件中……
为什么合同灵活性胜过静态语言
与其寄希望于合同语言足够,我们的协议:
- 允许我们嵌入前线部署的工程师。
- 要求合作伙伴让我们了解模型的使用情况。
- 赋予我们随时间迭代安全保障的能力。
如果我们的团队观察到模型没有拒绝本应拒绝的查询,或运营风险超出预期,合同允许我们自行进行修改。这比静态条款提供了 更大的结果影响力(以及对潜在滥用的洞察)。
法律约束
美国法律已经对最坏的结果设限。我们接受了部门提出的 “所有合法用途” 语言,但我们要求他们 在合同中直接定义限制监视和自主性的法律。由于法律可能会变化,将这些定义写入合同可以保护我们免受不可预见的法律或政策变动的影响。
在 Slashdot 上阅读此故事的更多内容。