미국 군 지도자들, Anthropic와 만나 Claude 보호 조치에 반대 의견 제시
Source: Hacker News
번역할 텍스트를 제공해 주시면 한국어로 번역해 드리겠습니다.
Background
미국 군 고위 관계자들, 방위부 장관 Pete Hegseth을 포함해, 인공지능 기업 Anthropic의 임원들과 화요일에 만나 정부가 해당 기업의 대형 언어 모델 Claude를 사용하는 것에 대한 분쟁을 논의했습니다. Hegseth는 Anthropic CEO Dario Amodei에게 금요일 영업 종료까지 국방부(DoD)의 조건을 수락하지 않으면 제재를 받을 것이라고 통보했으며, 이는 Axios에서 보도되었습니다.
Anthropic은 가장 안전‑지향적인 AI 기업 중 하나로 스스로를 내세우지만, 펜타곤과는 수주 동안 Claude를 군이 어떻게 활용할지에 대해 의견 차이를 보여 왔습니다. 미국 방위 관계자들은 Claude의 능력에 대한 제한 없는 접근을 원하고 있는 반면, Anthropic은 대규모 감시나 인간의 개입 없이 살상할 수 있는 자율 무기 등에 모델 사용을 허용하는 것을 거부한 것으로 알려졌으며, 이는 Wall Street Journal에서 전했습니다.
협상
- DoD 요구: 합법적인 모든 군사 목적을 위한 Claude에 대한 완전한 접근 권한.
- Anthropic 입장: 자율 살상 시스템이나 대규모 감시와 같이 안전 정책에 위배되는 사용을 허용하지 않음.
- 잠재적 제재: DoD는 대규모 계약을 취소하고 Anthropic을 “공급망 위험”으로 지정하는 등 징벌적 조치를 위협함 (Axios).
이 논의의 결과는 AI 산업이 군사적 적용에 대한 정부 요구에 어떻게 대응할지에 대한 선례를 만들 수 있으며, 이는 연구자와 윤리적 AI 옹호자들 사이에서 오랫동안 논쟁이 되어 온 사안이다.
산업 맥락
- 전년 7월, 국방부는 Anthropic, Google, OpenAI 등 여러 주요 AI 기업과 계약을 체결했으며, 계약 규모는 최대 $200 million에 달했습니다. 최근까지 Claude만이 기밀 군사 시스템에 사용이 승인된 모델이었습니다.
- 월요일에 국방부는 Elon Musk’s xAI chatbot을 기밀 환경에서 사용할 수 있도록 별도의 계약을 체결했으며, 최근 해당 모델이 비동의 아동 성적 이미지 생성으로 비판을 받았음에도 불구하고(Axios).
- xAI와 OpenAI는 모두 정부의 조건에 동의한 것으로 알려졌습니다. 워싱턴 포스트에 따르면, 한 국방 관계자는 OpenAI가 자사의 모델을 “모든 합법적인 목적”에 사용할 수 있도록 허용했다고 밝혔습니다. OpenAI는 이번 계약에 대해 별다른 언급을 하지 않았습니다.
정치적 함의
- 이 회의는 미국 군이 클로드를 사용해 베네수엘라 지도자 니콜라스 마두로 체포를 지원한 것으로 보고된 사건 이후에 열렸다.
- 트럼프 행정부는 군대에 AI를 신속히 통합하겠다고 추진해 왔으며, 전 대통령 도널드 트럼프는 미국이 글로벌 AI 군비 경쟁에서 승리할 것이라고 반복해서 약속했다.
- Emil Michael, 펜타곤의 최고 기술 책임자이자 전 Uber 임원은 Anthropic에게 “루비콘을 건너” 국방부 조건을 받아들이라고 공개적으로 촉구했으며, “정부로부터 돈을 벌고 싶다면, 그 가드레일은 우리 사용 사례에 맞게 조정되어야 합니다—법적인 한도 내에서라면 말이죠.”라고 밝혔다. (Defense Scoop).
Anthropic의 입장 및 자금 조달
- 다리오 아모데이는 오랫동안 더 강력한 AI 규제를 옹호해 왔습니다. Anthropic은 인공지능에 대한 강력한 안전장치를 촉구하는 정치 행동 위원회를 지원합니다.
- 아모데이는 2024년 대통령 선거 캠페인 동안 트럼프에 반대했으며, Anthropic은 여러 전 바이든 직원들을 고용했습니다. Wall Street Journal에 따르면, 이러한 정치적 입장이 친‑트럼프 벤처‑캐피털 회사가 올해 초 투자 철회를 하는 데 일조했습니다.
윤리적 우려
미국 국방부는 무인 항공 드론부터 자동 표적 시스템에 이르기까지 AI 기반 기술에 수십억 달러를 투자해 왔습니다. 이러한 도구들의 급속한 발전은 치명적인 의사결정을 AI에 위임하는 것에 대한 긴급한 윤리적 질문을 제기합니다. 이 문제는 이제 이론에 그치지 않으며, 우크라이나 전쟁에서는 이미 인간의 통제 없이 작동할 수 있는 치명적인 반자율 드론이 등장했습니다 (NY Times).