OpenAI, 반발 이후 미국 군과의 거래를 변경

발행: (2026년 3월 3일 오후 08:51 GMT+9)
7 분 소요

Source: BBC Technology

번역하려는 텍스트를 제공해 주시면 한국어로 번역해 드리겠습니다. 현재는 링크만 포함되어 있어 번역할 내용이 없습니다. 텍스트를 복사해서 알려 주세요.

Source: https://openai.com/index/our-agreement-with-the-department-of-war/

OpenAI가 펜타곤 계약을 수정합니다

OpenAI는 기밀 군사 작전에서 자사 기술 사용에 대해 미국 정부와 체결한 “기회주의적이고 부실한” 계약을 변경하고 있다고 밝혔습니다. 이번 조치는 전쟁에서 AI가 어떻게 사용되는지, 그리고 정부와 민간 기업이 어느 정도 권한을 가지고 있는지에 대한 질문을 제기합니다.

토요일에 발표된 성명에서 OpenAI는 **펜타곤과의 계약이 “기밀 AI 배치에 대한 이전 어느 계약보다 더 많은 가드레일을 가지고 있다”고 주장했습니다(Anthropic의 계약 포함)【https://openai.com/index/our-agreement-with-the-department-of-war/】. 월요일에 CEO 샘 알트먼은 X에 추가 변경 사항을 발표했으며, 여기에는 시스템이 “미국인 및 미국 국적자를 대상으로 한 국내 감시 목적으로 의도적으로 사용되지 않도록” 하는 내용이 포함되었습니다.

새로운 수정안에 따라 국가안보국(NSA)과 같은 정보기관도 계약에 “추가 수정”이 없이는 OpenAI 시스템을 사용할 수 없게 됩니다. 알트먼은 회사가 “금요일에 급히 내놓은” 것이 실수였다고 덧붙였습니다.

“문제는 매우 복잡하고 명확한 소통이 필요합니다.”
“우리는 진심으로 상황을 진정시키고 더 나쁜 결과를 피하려고 했지만, 오히려 기회주의적이고 부실하게 보였던 것 같습니다.”

OpenAI는 펜타곤과의 협업을 발표한 뒤 사용자들로부터 반발을 받았습니다. ChatGPT 모바일 앱의 일일 삭제 수는 토요일에 295 % 급증했으며, 이는 일반적인 9 %와 비교됩니다【https://techcrunch.com/2026/03/02/chatgpt-uninstalls-surged-by-295-after-dod-deal/】. 한편, Anthropic의 Claude는 Apple App Store 순위 상위에 오르며 여전히 자리하고 있습니다【https://apps.apple.com/us/iphone/charts】.

Claude는 Anthropic이 자사의 기술이 완전 자율 무기로 사용되지 않아야 한다는 기업 “레드라인” 원칙을 포기하지 않자 트럼프 행정부에 의해 블랙리스트에 올랐습니다. 그럼에도 불구하고, Claude는 이후에 이란과의 미국‑이스라엘 전쟁에서 사용된 것으로 드러났습니다【https://www.wsj.com/livecoverage/iran-strikes-2026/card/u-s-strikes-in-middle-east-use-anthropic-hours-after-trump-ban-ozNO0iClZpfpL7K7ElJ2?gaa_at=eafs&gaa_n=AWEtsqd1PRr0Da9XAC_JX9iHAqWPudILMGUWGu5JqI-QFVBMW3FiO9ity8OR0K_xrdI%3D&gaa_ts=69a6c3d6&gaa_sig=6ZRQN1M_BA4y75uzp-tQ67wO3Mwi3OK0yy3jDPjRzn85uiEZTQCppQ0u-CDg4QFCaaVJoMdVdqum_ezzSmCJ4w%3D%3D】. 펜타곤은 Anthropic과의 거래에 대해 논평을 거부했습니다.

군대에서 AI가 사용되는 방식

AI는 물류를 효율화하고 방대한 양의 정보를 신속하게 처리하는 등 군대에서 여러 방식으로 활용됩니다.

미국, 우크라이나, NATO는 모두 미국 기업 팔란티어(Palantir)의 기술을 사용합니다. 팔란티어는 정부 고객에게 정보 수집, 감시, 대테러, 군사 목적을 위한 데이터 분석 도구를 제공하는 회사입니다. 영국 국방부는 최근 이 회사와 2억 4천만 파운드 규모의 계약을 체결했습니다.

작년 말, BBC는 NATO에 팔란티어의 AI 기반 방위 플랫폼 Maven을 통합하는 작업에 참여한 인물들과 이야기를 나눴습니다. 이 소프트웨어는 위성 데이터부터 정보 보고서에 이르기까지 방대한 군사 정보를 하나로 모아, Claude와 같은 상업용 AI 시스템이 분석하도록 함으로써 “더 빠르고, 더 효율적이며, 상황에 따라서는 궁극적으로 더 치명적인 결정을 내릴 수 있게” 한다고 팔란티어 영국 사업부 책임자 루이 모슬리(Louis Mosley)가 말했습니다.

Getty Images A phone with the white OpenAI logo on it, in the background is the American flag

BBC/Palantir A picture showing a satellite image of military vehicles each covered with a purple box labelled

팔란티어 AI 시스템 시연 화면의 스크린샷.

대형 언어 모델은 실수를 하거나 정보를 조작할 수 있습니다—이를 “환각(hallucinating)”이라고 합니다. NATO의 Maven 태스크 포스 수석 데이터 책임관인 아만다 구스타브 대령(Lieutenant Colonel Amanda Gustave)은 인간의 감독이 항상 존재한다며 “우리는 항상 인간을 루프에 포함시키고 있다”는 점을 강조했고, AI가 “우리 대신 결정을 내리는 일은 절대 일어나지 않을 것”이라고 덧붙였습니다.

팔란티어는 Anthropic과 달리 자율 무기에 대한 전면 금지를 지지하지 않지만 “인간이 루프에 있어야 한다”고 주장합니다. 옥스퍼드 대학교의 마리아로사리아 타데오 교수(Mariarosaria Taddeo)는 BBC에 “Anthropic이 펜타곤을 떠난 지금, 가장 안전을 중시하는 주체가 방에서 사라졌다”고 말했습니다. “그것은 실제 문제다”고 그녀는 덧붙였습니다.

0 조회
Back to Blog

관련 글

더 보기 »