美国对伊朗的攻击使用了Anthropic AI
Source: Byline Network
Claude 的军事使用
尽管 Anthropic 反对其 AI 模型的无限制军事使用,但据称其大型语言模型(LLM)“Claude”在美军对伊朗的攻击中发挥了关键作用。特朗普政府曾因与 Anthropic 的冲突而在行政内部全面禁止使用 Claude,但仅仅数小时后,美军就将 Claude 投入实战。
多家外媒报道指出,美军在伊朗空袭的首日 24 小时内,为打击约 1,000 余个目标,使用了 Palantir 的 “Maven 智能系统”。该系统实时分析卫星、监视、情报数据,提供打击目标建议、精确坐标计算、目标优先级决定等功能。
问题在于该系统中嵌入了 Anthropic 的 Claude。过去一年,军方一直在将 Maven 与 Claude 的结合发展为全军日常作战工具。据悉,在本次伊朗行动中,两套系统的结合使原本需要数周才能完成的作战计划得以实时转化。
此前,Anthropic 与国防部因 Claude 的军事使用范围产生冲突。Anthropic 拒绝将其技术用于本国公民监视和自主武器系统后,特朗普总统下令立即停止联邦机构使用 Claude,国防部则将 Anthropic 列为“国家安全供应链风险”。这是美国企业首次被如此对待。
然而,国防部并未立即停止使用 Claude。由于 Claude 已在全军范围内被广泛使用,且没有可替代方案,军方表示将在替代品准备就绪之前,动用政府权力继续使用该技术。
AI 战争伦理争论浮出水面
有趣的是,Anthropic 反对的并不是“战争本身”。它始终拒绝的只有两件事:对本国公民的大规模监视和完全自主致命武器。将 AI 用于目标选择和优先级排序并不在 Anthropic 自己划定的红线之内。即便如此,Anthropic 的严格政策也未能阻止 Claude 在伊朗空袭中的使用。
尽管如此,对在战争中使用 AI 的批评仍然不少。谷歌、OpenAI 等大型科技公司员工相继发出公开信,要求对军事 AI 使用设定明确界限。题为 “We Will Not Be Divided” 的公开信约有 100 名 OpenAI 员工和近 800 名谷歌员工参与,呼吁拒绝将 AI 用于自主致命武器和本国公民监视。
但 OpenAI 为填补 Anthropic 的空缺,与国防部签订了合同;埃隆·马斯克的 xAI 也据称与军方专用机密计算网络达成了合作协议。
有观点警告称,如果不能在战争中使用 AI,可能会让中国受益。前 MIT 物理学家、未来生命研究所负责人 Max Tegmark 表示:“企业的自我监管行不通。所有公司都有自己的红线,但最终都会被突破。”
