펜타곤, AI 군사 분쟁으로 Anthropic 공급망 위험 지정
Source: The Hacker News
Ravie Lakshmanan
Feb 28 2026 – 국가 안보 / 인공지능
펜타곤, 앤트로픽을 공급망 위험으로 지정
[Image: Pentagon designates Anthropic]
앤트로픽은 미국 국방부 장관 Pete Hegseth이 펜타곤에 AI 신생 기업을 “공급망 위험”으로 라벨링하도록 지시한 후 금요일에 대응했습니다.
“이 조치는 우리가 요청한 두 가지 예외—우리 AI 모델 Claude의 합법적 사용에 관한 미국 내 대규모 감시와 완전 자율 무기에 대한—에 대해 교착 상태에 이른 수개월 간의 협상 이후에 이루어졌습니다.”
Source
“전쟁부의 어떤 위협이나 처벌도 대규모 국내 감시나 완전 자율 무기에 대한 우리의 입장을 바꾸지 않을 것입니다.”
정치 및 군사 지시
Truth Social에 게시된 글에서 미국 대통령 도널드 트럼프는 모든 연방 기관이 6개월 이내에 Anthropic 기술을 단계적으로 폐지하도록 명령했다고 발표했습니다. 이후 Hegseth가 X에 올린 글에서 미국 군과 거래하는 모든 계약업체, 공급업체 및 파트너는 즉시 “Anthropic과의 모든 상업 활동”을 중단하도록 명령했습니다.
“대통령의 연방 정부가 Anthropic 기술 사용을 전면 중단하라는 지시와 연계하여, 나는 전쟁부에 Anthropic을 국가 안보에 대한 공급망 위험으로 지정하도록 지시합니다,” Hegseth가 썼다.
Source
Anthropic의 입장
Anthropic은 자사의 계약이 대규모 국내 감시나 자율 무기 개발을 촉진해서는 안 된다고 주장했습니다.
“우리는 합법적인 해외 정보 및 방첩 임무에 AI를 활용하는 것을 지지합니다,” 라고 Anthropic은 밝혔습니다. “하지만 이러한 시스템을 대규모 국내 감시에 사용하는 것은 민주적 가치와 양립할 수 없습니다. AI 기반 대규모 감시는 우리의 기본 자유에 심각하고 새로운 위험을 초래합니다.”
이 회사는 또한 “AI‑first” 전쟁 수행 부대의 일환으로, 기술의 **‘합법적 사용’**만을 허용하고 기존의 안전장치를 제거하는 방식을 비판했습니다.
“다양성, 형평성, 포용성 및 사회적 이념은 DoW에 있을 자리가 없으므로, 사용자 프롬프트에 객관적으로 진실된 답변을 제공하는 능력을 방해하는 이념적 ‘튜닝’이 포함된 AI 모델을 사용해서는 안 됩니다,” 라는 펜타곤 메모가 전합니다.
“또한 부서는 합법적인 군사 적용을 제한할 수 있는 사용 정책 제약이 없는 모델을 활용해야 합니다.”
Anthropic은 이 지정이 법적으로 타당하지 않다고 설명하며, 이는 미국 기업이 정부와 협상할 때 위험한 선례를 만들 것이라고 경고했습니다. 이 회사는 10 U.S.C. § 3252에 따른 공급망 위험 지정은 DoW 계약에서 Claude를 사용하는 경우에만 적용될 수 있으며, 다른 고객에 대한 Claude 사용에는 영향을 미치지 못한다고 밝혔습니다.
산업계 반응
[Image: ThreatLocker]
수백 명의 Google 및 OpenAI 직원이 공개 서한에 서명하여, AI 도구인 Claude와 같은 군사적 활용에 대해 펜타곤과 충돌 중인 Anthropic을 지지해 줄 것을 회사에 촉구했습니다.
공개 서한
OpenAI의 입장
이번 대립은 OpenAI CEO Sam Altman이 OpenAI가 미국 국방부(DoD)와 협약을 체결해 자체 모델을 기밀 네트워크에 배치했으며, 그 조건을 모든 AI 기업에 확대해 줄 것을 국방부에 요청했다고 밝힌 것과 시기적으로 맞물려 있습니다.
“AI 안전과 혜택의 광범위한 분배는 우리의 사명의 핵심입니다. 우리 가장 중요한 안전 원칙 두 가지는 국내 대규모 감시 금지와 자율 무기 시스템을 포함한 무력 사용에 대한 인간의 책임입니다,” 라고 Altman은 말했습니다.
Source
이 기사 흥미로우셨나요? 다음에서 팔로우하세요:
LinkedIn에서 우리가 게시하는 더 많은 독점 콘텐츠를 읽어보세요.