OpenAI가 펜타곤과의 협약에 대한 자세한 내용을 공개합니다
Source: TechCrunch
Background
Anthropic과 펜타곤 간 협상이 결렬된 후, 도널드 트럼프 대통령은 연방 기관들에게 6개월 전환 기간이 끝난 뒤 Anthropic의 기술 사용을 중단하라고 지시했으며, 국방부 장관 피트 헤그세스는 해당 AI 회사를 공급망 위험으로 지정했습니다.
OpenAI의 국방부와의 계약
OpenAI는 기밀 환경에 배치될 모델에 대해 자체 계약을 체결했다고 신속히 발표했습니다. 회사는 블로그 게시물을 통해 접근 방식을 설명했으며, 여기서 OpenAI 모델이 사용될 수 없는 세 가지 영역을 제시했습니다:
- 대규모 국내 감시
- 자율 무기 시스템
- 높은 위험이 수반되는 자동화 의사결정(예: “사회적 신용” 시스템)
OpenAI는 “안전 가드레일을 감소시키거나 제거하고 주로 사용 정책에 의존하는 다른 AI 기업들과 달리, 우리 계약은 ‘보다 포괄적이고 다층적인 접근 방식’으로 이러한 적선을 보호한다”고 주장했습니다.
“우리는 안전 스택에 대한 완전한 재량권을 유지하고, 클라우드를 통해 배포하며, 승인된 OpenAI 인력이 직접 관여하고, 강력한 계약적 보호 장치를 갖추고 있습니다.” 라고 블로그는 말했습니다. “이 모든 것은 미국 법률에 이미 존재하는 강력한 보호 장치에 추가되는 것입니다.”
게시물은 또한 “Anthropic이 왜 이 계약을 체결하지 못했는지는 알 수 없으며, 그들이 그리고 더 많은 연구소들이 이를 고려해 주길 바랍니다.” 라고 덧붙였습니다.
안전 장치 및 배포 아키텍처
OpenAI의 국가 안보 파트너십 책임자 카트리나 멀리건은 배포 아키텍처가 계약 언어보다 더 중요하다고 강조했습니다. 클라우드 API로 배포를 제한함으로써 OpenAI는 모델이 무기 시스템, 센서 또는 기타 운영 하드웨어에 직접 통합되는 것을 방지할 수 있습니다.
비판 및 대응
Techdirt의 마이크 마스닉은 이 계약이 “절대적으로 국내 감시를 허용한다”고 주장했습니다. 이는 계약서에 개인 데이터 수집이 Executive Order 12333(및 기타 법률)과 일치한다는 조항이 있기 때문입니다. 마스닉은 이 명령을 “NSA가 미국 외부의 회선을 통해 미국인에 관한 정보를 포착함으로써 국내 감시를 숨기는 방법”이라고 설명했습니다.
LinkedIn 게시물에서 멀리건은 계약 언어에 대한 논의가 “미국인과 대규모 국내 감시 및 자율 무기 사용 사이에 서 있는 유일한 장벽이 국방부와의 단일 계약에 포함된 하나의 사용 정책 조항”이라고 가정하고 있다고 비판했습니다. 그녀는 “배포 아키텍처가 계약 언어보다 더 중요합니다… 클라우드 API로 배포를 제한함으로써 우리 모델이 무기 시스템, 센서 또는 기타 운영 하드웨어에 직접 통합되는 것을 방지할 수 있습니다.” 라고 반박했습니다.
Altman은 X(구 Twitter)에서 질문에 답하며 계약이 급하게 진행됐음을 인정하고, 이로 인해 발생한 반발을 언급했습니다. 그는 특히 논쟁 직후 Anthropic의 Claude가 Apple App Store에서 OpenAI의 ChatGPT를 앞섰다는 사실을 지적했습니다.
“우리는 정말 상황을 진정시키고 싶었고, 제안된 계약이 좋다고 생각했습니다.” 라고 Altman이 말했습니다. “우리가 옳고 이 계약이 국방부와 산업 간의 긴장을 완화한다면, 우리는 천재처럼 보일 것입니다… 그렇지 않다면, 우리는 계속해서 … 급하게 진행되고 부주의하다는 평가를 받을 것입니다.”
산업에 미치는 영향
이번 논란은 AI 연구소마다 정부 계약에 대한 접근 방식이 다름을 부각시켰으며, 투명성, 안전 장치, 그리고 고급 AI 모델의 오용을 방지하기 위한 배포 아키텍처의 역할에 대한 질문을 제기했습니다.