Anthropic: 팬데믹 시대의 안전 우려에서 $350B AI 기업으로
Source: Dev.to
번역을 진행하려면 번역하고자 하는 전체 텍스트를 제공해 주시겠어요? 텍스트를 주시면 요청하신 대로 한국어로 번역해 드리겠습니다.
2021년 초, COVID‑19 팬데믹이 절정에 달했을 때, 전 OpenAI 연구원 소수 그룹이 AI 산업을 조용히 재편할 결정을 내렸다.
마스크를 착용하고 사회적 거리두기를 유지하며 뒷마당에서 모이던 이 모임은 Anthropic으로 성장했으며, 2025년 11월 기준 가치가 3500억 달러 이상인 AI 기업이 되었다 — 단 하나의 핵심 신념을 중심으로 설립되었다:
강력한 AI 시스템은 설계 단계부터 안전하고, 해석 가능하며, 정렬되어야 한다.
이 이야기는 그 신념이 내부 의견 차이에서 세계에서 가장 영향력 있는 AI 기업 중 하나로 발전해 온 과정을 담고 있다.
The Genesis: A Safety‑First Vision
Anthropic는 Dario와 Daniela Amodei 형제자매가 이끄는 전 OpenAI 연구원 일곱 명에 의해 설립되었습니다.
그들은 방향성 의견 차이 때문에 OpenAI를 떠났으며, 특히 AI 역량을 안전 연구에 비해 얼마나 공격적으로 확장할 것인가에 대한 의견 차이가 있었습니다. OpenAI가 점점 더 강력한 모델을 추진하는 동안, 이 그룹은 안전이 사후 생각이 아니라 보다 근본적인 기반이어야 한다고 믿었습니다.
COVID‑19 두 번째 물결 동안 진행된 초기 논의들은 근본적으로 다른 철학을 가진 새로운 회사를 위한 토대를 마련했습니다.
설립자들: 보완적인 파트너십
다리오 아모데이 — 기술 리더십
다리오 아모데이는 벤처에 깊은 기술 신뢰성을 제공했습니다. 그는 OpenAI의 Vice President of Research로서 GPT‑2와 GPT‑3 개발을 이끌었으며 reinforcement learning from human feedback (RLHF) 를 공동 발명했습니다.
그의 배경은 다음과 같습니다:
- 스탠포드 대학에서 물리학 전공
- 프린스턴 대학에서 계산 신경과학 전공
- 바이두와 구글 브레인에서 연구 역할 수행
- OpenAI (2016년 입사)
이론적 깊이와 실용적인 AI 스케일링 경험이 결합되어 Anthropic의 연구 방향을 형성했습니다.
다니엘라 아모데이 — 운영 및 정책
다니엘라 아모데이는 형제의 기술 중심을 보완하는 운영 리더십을 제공했습니다.
그녀의 배경은 다음과 같습니다:
- UC 버클리에서 영문학, 정치학, 음악 전공
- 스트라이프에서 운영 역할을 5년 수행
- OpenAI에서 Safety and Policy 부문 부사장
Anthropic에서 그녀는 윤리적 배포, 거버넌스, 그리고 제도 설계에 집중하여 안전 원칙이 모델 훈련을 넘어 회사 구조에까지 확장되도록 보장했습니다.
Constitutional AI: Anthropic’s Core Innovation
Anthropic의 정의적인 돌파구는 Constitutional AI (CAI) — 인간 중재자에만 의존하지 않고 안전성을 확장하도록 설계된 훈련 접근 방식이었습니다.
전통적인 RLHF와 달리, Constitutional AI는 훈련 과정에 명시적이고 검토 가능한 가치를 도입합니다.
Phase 1: Supervised Self‑Critique
- 모델이 응답을 생성합니다.
- 모델은 자체 출력물을 작성된 “헌법”과 비교해 비판합니다.
- 비판을 바탕으로 수정하고 학습합니다.
헌법은 75개의 원칙으로 구성되었으며, UN Universal Declaration of Human Rights와 같은 자료를 참고했습니다.
Phase 2: Reinforcement Learning from AI Feedback (RLAIF)
- 인간이 아닌 AI 시스템이 응답을 평가합니다.
- 헌법 준수를 기준으로 선호 모델을 훈련합니다.
해로운 행동은 인간이 불쾌한 콘텐츠에 노출되지 않도록 훈련을 통해 제거됩니다.
이로써 안전성을 확장 가능하게 만들었으며—최첨단 모델에 필수적인 요구사항입니다. 중요한 점은 Anthropic이 이러한 원칙을 명시적이고 편집 가능하게 만들었으며, 모델 가중치 안에 가치를 불투명하게 내재시키지 않았다는 것입니다.
Claude: 내부 실험에서 공개 모델까지
Anthropic은 2022년 여름에 Claude의 첫 번째 버전 훈련을 완료했지만, 즉시 배포하지 않기로 의도적으로 선택했습니다. 우려는 순수히 능력에만 초점을 맞춘 AI 군비 경쟁을 촉발하는 것이었습니다.
3개월 후, OpenAI가 ChatGPT를 출시했습니다.
Claude는 2023년 3월에 공개적으로 출시되었으며, 정보 이론의 창시자인 Claude Shannon의 이름을 따랐습니다. 이 이름은 Alexa와 Siri와 같은 어시스턴트와 대비되도록 의도적으로 남성적인 이름으로 정했습니다.
Claude가 처음부터 돋보였던 점은 다음과 같습니다:
- 200,000‑토큰 컨텍스트 윈도우
- 도움이 되고, 해가 없으며, 정직함을 강조
초기에 출시된 두 가지 버전:
- Claude (전체 모델)
- Claude Instant (더 빠르고 가벼움)
초기 기반: 개념에서 코드까지
설립 논의 (2020–2021)
인프라가 존재하기 전에, 팀은 핵심 통찰에 합의했다: 스케일링 법칙. 그들은 다음을 인식했다:
- 더 많은 연산 + 더 많은 데이터 + 단순 알고리즘 → 광범위한 인지 향상
이러한 통찰은 안전이 능력과 함께 스케일링되어야 한다는 믿음을 촉진했다.
Aligned AI, Sparrow, Sloth 와 같은 이름을 브레인스토밍한 후, 그들은 Anthropic을 선택했다 — 인간 중심이며 도메인으로 사용할 수 있다.
초기 연구 초점 (2021)
Anthropic는 제품을 빠르게 출시하기보다 기본 연구에 집중했다. 설립 팀(15–20명)은 매주, 종종 야외에서 만나, 나중에 2022년 12월에 발표된 Constitutional AI로 이어질 아이디어를 다듬었다.
인프라 진화: 클라우드 임대에서 메가스케일 컴퓨팅까지
단계 1: Google Cloud (2021–2023)
Anthropic는 처음에 Google Cloud를 통한 표준 GPU 클러스터에 의존했으며, 대규모 자본 지출 없이 빠른 반복이 가능했습니다. 이 단계에서는 작은 모델에 대한 Constitutional AI 접근법을 검증했습니다.
단계 2: 멀티‑클라우드 전략 (2023–2024)
- Amazon이 40억 달러를 투자, Anthropic의 주요 훈련 파트너가 됨.
- AWS는 Anthropic 워크로드에 최적화된 맞춤형 Trainium 칩 개발을 약속함.
단계 3: 대규모 확장 (2024–2026)
| 제공자 | 핵심 자산 |
|---|---|
| AWS — Project Rainier | • 수십만 개의 Trainium 2 칩 • 인디애나에 위치한 1,200에이커 캠퍼스 • 전용 IT 용량 1.3 GW 이상 • 맞춤형 커널 수준 최적화 |
| Google Cloud | • 최대 백만 대의 TPU 배치를 약속 • 7세대 Ironwood TPU • 수백억 달러 규모의 인프라 • Vertex AI를 통한 배포 |
| Nvidia GPUs | • 특수 워크로드에 선택적으로 사용 • 유연성을 보장하고 공급업체 종속을 방지 |
모든 정보는 2025년 11월까지 공개된 자료를 기반으로 합니다.
소프트웨어 스택 및 교육 파이프라인
핵심 기술
- Python (주요 언어)
- PyTorch 및 JAX
- 클라우드 인프라에서 분산 학습
교육 데이터
- 웹 스크래핑
- 라이선스 콘텐츠
- 계약자 제공 예시
- 사용자 상호작용 (옵트인)
주요 이니셔티브는 수백만 권의 책을 디지털화하는 것이었으며, 이후 15억 달러 저작권 합의로 이어졌습니다.
Claude 모델 진화
Claude 1 및 2 (2023)
- 최초 공개 출시
- 확장된 컨텍스트 윈도우
Claude 3 패밀리 (2024년 3월)
- Haiku – 빠르고 작음
- Sonnet – 균형 잡힘
- Opus – 가장 크고, 가장 능력 있음
- 멀티모달 입력 및 방대한 컨텍스트
Claude 3.5 Sonnet (2024년 6월)
- Artifacts 도입 (실시간 코드 미리보기)
- Computer Use 출시, Claude가 소프트웨어를 직접 작동하도록 함
Claude 4 패밀리 (2025년 5월)
- 하이브리드 추론 모드
- ASL‑3으로 분류되어 강화된 안전장치 활성화
Claude 4.5 (2025년 말)
- 최첨단 코딩 성능
- 공격적인 가격 인하
- 강력한 에이전시 및 도구 사용 능력
챗봇을 넘어: 제품 생태계
핵심 제품
- Claude API
- Claude.ai – 소비자 인터페이스
- Claude Code – 개발자 중심 코딩 어시스턴트
- Claude Enterprise
플랫폼 혁신
- Model Context Protocol (MCP)
- 보안 코드 실행
- 지속적인 파일 컨텍스트
- 에이전트 스킬
- 도구 탐색
- 웹 검색 통합
비즈니스 모델 및 성장
수익원
- API 사용 (70 %–75 %)
- 구독 (10 %–15 %)
- 기업 파트너십
Anthropic 주요 이정표
- $5 B ARR 2025년 중반까지
- $500 M Claude Code에서 8주 이내 연간 매출
Governance and Safety
Anthropic은 **Public Benefit Corporation (PBC)**와 Long‑Term Benefit Trust 형태로 운영되며, 안전을 기업 거버넌스에 내재화합니다.
Anthropic Safety Levels (ASL) 프레임워크는 바이오안전 프로토콜에서 영감을 받아 배포 임계값 및 보호 장치를 정의합니다.
도전 과제 및 논란
- 저작권 소송
- 오용과 관련된 보안 사고
- 자금 출처에 대한 정치적 감시
이러한 문제에도 불구하고, Anthropic은 투명성 및 통제된 확장을 지속적으로 강조하고 있습니다.
앞을 내다보며: 2026년 및 그 이후
Anthropic의 집중 분야:
- 다중 에이전트 오케스트레이션
- 디지털 임원 스타일 에이전트
- 더 깊은 OS 수준 통합
질문은 이제 AI가 행동할 수 있는가가 아니라 — 우리가 안전하게 신뢰할 수 있는 자율성의 정도이다.
결론: 희생 없는 안전
마스크를 쓴 뒷마당 회의부터 수백만 개의 AI 칩을 아우르는 글로벌 인프라에 이르기까지, Anthropic의 여정은 안전과 역량이 서로 배타적이지 않음을 보여줍니다.
Constitutional AI, ASL, Computer Use, 그리고 거버넌스 구조에 대한 그들의 작업은 전체 산업에 영향을 미쳤습니다.
Anthropic이 궁극적으로 강력한 AI 시스템을 인간 가치와 완전히 일치시키는 데 성공할지는 불확실하지만, 그들의 이야기는 한 가지를 증명합니다:
원칙에 기반한 AI 개발은 기술적으로, 상업적으로, 윤리적으로 확장될 수 있습니다.
자유롭게 댓글을 남기거나 X (Twitter) 로 연락 주세요.
읽어 주셔서 감사합니다.