미국, Anthropic에 'Supply-Chain Risk' 지정 위협. OpenAI, 새로운 국방부 계약 체결.
Source: Slashdot
Background
금요일에 모든 미국 연방 기관은 즉시 Anthropic의 AI 기술 사용을 중단하라는 명령을 받았습니다. 이는 Anthropic이 대규모 국내 감시와 완전 자율 무기에 대한 금지를 요구하면서 계약 협상이 교착 상태에 빠졌기 때문입니다.
Secretary of War Pete Hegseth’s Statement
X에서 110만 명의 팔로워에게 올린 글에서 전쟁부 장관 Pete Hegseth은 Anthropic을 비판하며, 회사의 입장을 “거만함과 배신의 교과서적인 사례”이자 “미국 정부나 국방부와 비즈니스를 하는 방법에 대한 교과서적인 사례”라고 표현했습니다.
그는 전쟁부가 공화국 방위를 위한 모든 합법적 목적에 대해 Anthropic의 모델에 대한 완전하고 제한 없는 접근 권한을 가져야 한다고 주장했으며, Anthropic을 국가 안보에 대한 공급망 위험으로 지정한다고 발표했습니다. 즉시 발효되며, 미국 군과 거래하는 어떠한 계약자, 공급업체, 파트너도 Anthropic과 상업 활동을 할 수 없습니다.
Anthropic’s Response
Anthropic은 “전쟁부의 어떠한 위협이나 처벌도 우리의 입장을 바꾸지 않을 것”이라며, 공급망 위험 지정에 대해 법원에 도전할 것이라고 답했습니다.
Anthropic 성명서의 주요 내용:
- Anthropic을 공급망 위험으로 지정하는 것은 전례가 없으며, 역사적으로는 미국의 적국에만 적용되어 왔습니다.
- Anthropic은 2024년 6월부터 미국 정부의 기밀 네트워크에 모델을 배치한 최초의 프런티어 AI 기업으로, 전투원들을 지원해 왔습니다.
- 회사는 이 지정이 법적으로 타당하지 않으며, 정부와 협상하는 모든 미국 기업에게 위험한 선례가 될 것이라고 믿습니다.
- Anthropic은 현재의 프런티어 AI 모델이 완전 자율 무기에 충분히 신뢰할 수 없으며, 전투원과 민간인에게 위험을 초래한다고 판단합니다.
- 또한, 회사는 미국인의 대규모 국내 감시를 반대하며, 이를 기본 권리 침해로 보고 있습니다.
OpenAI’s Deal with the Department of War
같은 날, OpenAI는 전쟁부와 협약을 맺어 자사의 모델을 국방부 기밀 네트워크에 배치한다는 발표를 했습니다.
OpenAI CEO Sam Altman은 이번 협약이 OpenAI의 “국내 대규모 감시 용도에 제품을 사용하는 것을 금지”하는 입장을 유지하고, 무력 사용에 대한 “인간의 책임”을 요구하며, 자율 무기 시스템을 포함한다고 강조했습니다. 그는 전쟁부가 이러한 원칙에 동의하고 이를 법과 정책에 반영하며, 모델 행동이 합의된 기준에 맞도록 기술적 안전장치를 구현할 것이라고 덧붙였습니다.
Outlook
OpenAI는 전쟁부에 모든 AI 기업에게 동일한 조건을 제시하도록 요구하며, 긴장 완화와 합리적인 협약을 촉구하고 있습니다. 회사는 인류에 봉사하겠다는 약속을 재확인하면서도, 세상이 복잡하고 때로는 위험하다는 점을 인정했습니다.