Nvidia의 DGX Station은 클라우드 없이 트릴리언 파라미터 AI 모델을 실행하는 데스크톱 슈퍼컴퓨터.

발행: (2026년 3월 17일 AM 05:30 GMT+9)
16 분 소요

Source: VentureBeat

개요

Nvidia는 데스크탑형 슈퍼컴퓨터 DGX Station을 공개했으며, 클라우드에 의존하지 않고 1조 파라미터(대략 GPT‑4 수준)까지의 AI 모델을 실행할 수 있습니다.

  • Memory: 748 GB의 일관된(통합) 메모리
  • Compute: 20 페타플롭스(초당 20경 연산)
  • Form factor: 모니터 옆에 놓을 수 있는 박스로, 일반 벽면 콘센트에서 전원을 공급받음

샌호세에서 열린 Nvidia 연례 GTC 컨퍼런스에서 발표된 DGX Station은 원래 Mac Pro가 창작 전문가들에게 기존 워크스테이션을 포기하도록 설득한 이후 가장 중요한 개인용 컴퓨팅 제품일 가능성이 있습니다.

데스크톱에서 20 Petaflops가 중요한 이유

DGX Station은 새로운 GB300 Grace Blackwell Ultra Desktop Superchip을 기반으로 하며, 다음을 결합합니다:

구성 요소사양
Grace CPU72‑코어
Blackwell Ultra GPUNvidia의 NVLink‑C2C 인터커넥트를 통해 CPU와 통합
NVLink‑C2C 대역폭1.8 TB/s (≈ PCIe Gen 6보다 7배 빠름)
통합 메모리748 GB, CPU와 GPU 사이에 원활하게 공유

고대역폭 연결은 별도의 CPU와 GPU 메모리 풀 간에 데이터를 이동할 때 발생하는 지연 패널티를 없애며, 이는 데스크톱 AI 작업에서 흔히 발생하는 병목 현상입니다.

  • 역사적 맥락 – 20 Petaflops는 10년 전만 해도 세계 최고 슈퍼컴퓨터 중 하나에 해당했을 정도입니다. 예를 들어 2018년 오크리리지 국립연구소의 Summit 시스템은 대략 10배 정도 더 높은 성능을 제공했지만, 두 개의 농구 코트 크기만 한 공간을 차지했습니다. Nvidia는 이제 그 능력의 의미 있는 일부를 벽면 콘센트에 꽂을 수 있는 장치로 패키징했습니다.
  • 메모리가 진정한 차별점 – 트릴리언 파라미터 모델은 전체를 메모리에 로드해야 합니다. 충분한 메모리가 없으면, 아무리 높은 연산 능력을 갖추어도 모델이 들어가지 않아 실행할 수 없습니다. DGX Station의 748 GB 통합 메모리 풀은 이 장벽을 해소합니다.

항상 켜져 있는 에이전트는 항상 켜져 있는 하드웨어가 필요합니다

Nvidia는 DGX Station을 AI의 다음 단계인 자율 에이전트의 기반으로 자리매김합니다. 이 에이전트는 추론하고, 계획하고, 코드를 작성하며, 작업을 지속적으로 실행합니다—단순히 프롬프트에 응답하는 것이 아니라.

  • NemoClaw – Station과 함께 발표된 새로운 오픈 소스 스택입니다.
    • Nvidia의 Nemotron 오픈 모델을 OpenShell과 번들링합니다. OpenShell은 정책 기반 보안, 네트워킹 및 개인 정보 보호 가드레일을 시행하는 안전한 런타임으로, 자율 에이전트를 보호합니다.
    • 한 번의 명령으로 설치할 수 있습니다.

Jensen Huang, Nvidia의 설립자이자 CEO는 더 넓은 플랫폼 (OpenClaw)을 *“개인 AI를 위한 운영 체제”*라고 설명했으며, macOS와 Windows에 직접 비유했습니다.

왜 로컬, 항상 켜져 있는 하드웨어가 필요한가?

클라우드 기반 GPU데스크톱 기반 DGX Station
필요에 따라 스핀업/스핀다운24/7 지속적인 컴퓨팅
데이터가 귀하의 시설을 떠남데이터, 모델 및 상태가 로컬에 유지
가변 지연 시간 및 대역폭고정된 저지연 NVLink‑C2C
네트워크 보안 제어 필요내장된 샌드박스 보안

DGX Station은 단독 개발자를 위한 개인 슈퍼컴퓨터 또는 팀을 위한 공유 컴퓨트 노드 역할을 할 수 있습니다. 또한 데이터가 절대로 건물을 떠나서는 안 되는 기밀 또는 규제 환경을 위한 에어갭 구성을 지원합니다.

데스크 프로토타입에서 데이터‑센터 생산까지 – 코드 수정 없이

Nvidia는 Station의 설계를 architectural continuity라고 부릅니다. DGX Station에서 구축된 애플리케이션은 Nvidia의 GB300 NVL72 데이터‑센터 시스템(하이퍼스케일 AI 공장을 위한 72‑GPU 랙)으로 without any code changes 없이 원활하게 마이그레이션됩니다.

  • Benefit: 다양한 하드웨어 스택에 맞게 코드를 재구성해야 하는 숨겨진 비용을 없애줍니다.
  • Software stack: 동일한 NVIDIA AI 소프트웨어 스택이 모든 계층에서 실행됩니다 — DGX Station부터 DGX Spark, Vera Rubin NVL72, 그리고 그 이후까지.

DGX Spark clustering – Station의 작은 형제 제품인 DGX Spark는 이제 최대 네 대의 Spark 유닛까지 클러스터링을 지원하여 거의 선형에 가까운 성능 확장을 제공합니다. 이는 회의실 테이블 위에 놓을 수 있는 “데스크톱 데이터센터”를 만들어, Station 비용의 일부만으로도 신뢰할 만한 부서 AI 플랫폼을 제공합니다.

초기 구매자 – 시장이 나아가는 방향

고객사용 사례
Snowflake오픈소스 Arctic 교육 프레임워크의 로컬 테스트
EPRI (Electric Power Research Institute)AI 기반 날씨 예측을 통해 전력망 신뢰성 향상
Medivis시각‑언어 모델을 외과 작업 흐름에 통합
Microsoft Research & Cornell University실습 AI 교육 (기사가 중단됨)

이러한 초기 채택자들은 AI가 실험 프로젝트에서 다양한 산업 분야의 일상 운영 도구로 빠르게 전환하고 있음을 보여줍니다.

Bottom Line

DGX Station은 한때 비현실적이던 AI 성능 수준—20 페타플롭스와 748 GB의 통합 메모리—을 책상 위에 올려놓을 수 있는 폼 팩터로 제공한다. 이 하드웨어를 NemoClaw 소프트웨어 스택과 결합하고 데이터센터 규모 시스템으로의 원활한 마이그레이션을 보장함으로써, Nvidia는 트릴리언 파라미터 모델 및 항상 켜져 있는 자율 에이전트를 구축, 테스트, 확장하기 위한 완전한 엔드‑투‑엔드 파이프라인을 제공한다.

만약 로컬 및 지속적인 AI 워크로드에 대한 추세가 계속된다면, DGX Station은 차세대 개인 및 기업 AI를 위한 사실상의 개발 플랫폼이 될 수 있다.

DGX Station 개요

시스템은 현재 주문이 가능하며, 향후 몇 달 안에 ASUS, Dell Technologies, GIGABYTE, MSI, Supermicro에서 출하될 예정이며, 연말에 HP가 합류할 예정입니다. Nvidia는 가격을 공개하지 않았지만, GB300 구성 요소와 회사의 과거 DGX 가격 정책을 보면 6자리 투자가 필요함을 시사합니다 — 워크스테이션 기준으로는 비싸지만, 대규모 트릴리언 파라미터 추론을 위한 클라우드 GPU 비용에 비하면 놀라울 정도로 저렴합니다.

지원되는 모델

지원되는 모델 목록은 AI 생태계가 얼마나 개방되었는지를 보여줍니다:

  • OpenAIgpt-oss-120b
  • GoogleGemma 3
  • QwenQwen3
  • MistralMistral Large 3
  • DeepSeekV3.2
  • NvidiaNemotron models

DGX Station은 설계상 모델에 구애받지 않으며 — 모델 충성도가 분기마다 바뀌는 산업에서 하드웨어 “스위스”와 같습니다.

Source:

Nvidia의 진짜 전략: AI 스택의 모든 레이어 장악

DGX Station은 진공 상태에서 등장한 것이 아니다. 이는 GTC 2026 발표들의 광범위한 세트 중 하나로, Nvidia가 문자 그대로 모든 물리적 규모에서 AI 연산을 제공하려는 야망을 보여준다.

Vera Rubin Platform

  • 7개의 새로운 칩이 전량 생산 중이며, Vera Rubin NVL72 랙을 중심으로 함
  • 72개의 차세대 Rubin GPU 통합
  • 현재 Blackwell 세대 대비 와트당 추론 처리량이 최대 10배 높다고 주장

Vera CPU

  • 88개의 맞춤형 Olympus 코어
  • 에이전시 워크로드가 점점 더 요구하는 오케스트레이션 레이어를 목표로 함

Vera Rubin Space Module

  • 궤도 데이터 센터용으로 설계
  • H100 대비 우주 기반 추론을 위한 AI 연산이 25배 더 많음

파트너십 & 에코시스템

  • Adobe – 크리에이티브 AI
  • 자동차 제조업체 – BYD와 Nissan, Level 4 자율주행 차량용
  • Mistral AI + 7개 기타 연구소 – 오픈 프론티어 모델 구축
  • Dynamo 1.0 – 오픈소스 추론 운영 체제, 이미 AWS, Azure, Google Cloud 및 Cursor, Perplexity와 같은 AI‑네이티브 기업에서 채택

패턴: Nvidia는 컴퓨팅 플랫폼—하드웨어, 소프트웨어, 모델—을 모든 AI 워크로드, 모든 장소에서 제공하고자 한다. DGX Station은 클라우드와 개별 사용자를 연결하는 격차를 메운다.

클라우드는 사라지지 않았지만, 진지한 AI 작업에 대한 독점은 끝나가고 있습니다

수년간 AI 분야에서는 클라우드 GPU 인스턴스—AWS, Azure, Google Cloud에서 Nvidia 하드웨어를 임대하는 것이 진지한 작업에 필수라는 가정이 기본이었습니다. 이 모델은 작동하지만 실제 비용이 따릅니다:

  • 데이터 전송 요금
  • 지연 시간
  • 제3자 인프라에 자체 데이터를 전송함으로써 발생하는 보안 위험
  • 타인의 컴퓨터를 임대함에 따라 발생하는 제어권 상실

DGX Station은 클라우드를 없애는 것이 아니라—Nvidia의 데이터센터 사업은 데스크톱 매출보다 훨씬 규모가 크고 가속화되고 있습니다. 하지만 중요한 그리고 성장하고 있는 작업 카테고리에 대해 신뢰할 수 있는 로컬 대안을 제공합니다:

  • 독점 데이터를 사용해 트리플리온 파라미터 규모의 오픈 모델을 미세 조정
  • 민감한 문서를 처리하는 내부 에이전트에 대한 추론 실행
  • 클라우드 비용을 투입하기 전 프로토타이핑

책상 아래에 놓인 한 대의 머신이 합리적인 선택처럼 보이기 시작합니다.

전략적 우아함: 이 제품은 Nvidia의 개인 AI 인프라스트럭처 시장을 확대하면서 클라우드 비즈니스를 강화합니다. 로컬에서 구축된 모든 것이 Nvidia 데이터센터 플랫폼으로 확장될 수 있도록 설계되었기 때문입니다. 이는 클라우드와 책상의 대립이 아니라 클라우드 책상의 결합이며, Nvidia는 두 가지 모두를 제공합니다.

모든 책상 위의 슈퍼컴퓨터 — 그리고 절대 잠들지 않는 에이전트

PC 혁명의 핵심 슬로건은 “모든 책상과 모든 가정에 컴퓨터가 있다” 였습니다. 40년이 지난 지금, 엔비디아는 불편한 확장을 통해 이 전제를 업데이트하고 있습니다.

  • DGX Station은 진정한 슈퍼컴퓨팅 파워—국가 연구소를 운영하던 수준—를 키보드 옆에 배치합니다.
  • NemoClaw는 그 위에 자율 AI 에이전트를 두어 24시간 내내 코드를 작성하고, 도구를 호출하며, 소유자가 잠자는 동안 작업을 완료합니다.

그 미래가 흥미진진한지 혹은 불안한지는 관점에 따라 다릅니다. 이제 더 이상 논쟁의 여지가 없는 한 가지 사실은, 최첨단 AI를 구축하고 운영하며 소유하는 데 필요한 인프라가 서버룸에서 책상 서랍으로 옮겨갔다는 것이며, 지구상의 거의 모든 주요 AI 칩을 판매하는 기업이 그 서랍도 함께 판매한다는 점입니다.

0 조회
Back to Blog

관련 글

더 보기 »