NVIDIA와 AWS, Full-Stack 파트너십 확대, 미래 혁신에 필수적인 보안·고성능 컴퓨팅 플랫폼 제공
Source: NVIDIA AI Blog
Overview
AWS re:Invent에서 NVIDIA와 Amazon Web Services는 인터커넥트 기술, 클라우드 인프라, 오픈 모델, 물리적 AI 전반에 걸친 새로운 기술 통합으로 전략적 협업을 확대했습니다.
이번 확장의 일환으로 AWS는 맞춤형 AI 인프라 플랫폼인 NVIDIA NVLink Fusion을 지원합니다. 이를 통해 차세대 Trainium4 칩을 활용한 추론 및 에이전트 AI 모델 학습, 다양한 워크로드를 위한 Graviton CPU, 그리고 Nitro System 가상화 인프라 등 맞춤형 실리콘을 배포할 수 있습니다.
NVIDIA NVLink Fusion을 사용하여 AWS는 NVIDIA NVLink 스케일‑업 인터커넥트와 NVIDIA MGX 랙 아키텍처를 AWS 맞춤 실리콘과 결합해 성능을 높이고 차세대 클라우드‑스케일 AI 역량의 시장 출시 시간을 단축합니다.
AWS는 Trainium4가 NVLink와 NVIDIA MGX와 통합되도록 설계하고 있으며, 이는 NVIDIA와 AWS 간 다세대 협업의 첫 단계인 NVLink Fusion입니다. AWS는 이미 NVIDIA GPU와 함께 MGX 랙을 대규모로 배포했습니다. NVLink Fusion을 통합하면 플랫폼 전반에 걸친 배포 및 시스템 관리가 더욱 간소화되고, 랙‑스케일 배포에 필요한 모든 구성 요소(랙 및 섀시, 전원 공급 및 냉각 시스템 등)를 제공하는 NVLink Fusion 공급업체 생태계를 활용할 수 있게 됩니다.
AWS의 Elastic Fabric Adapter와 Nitro System을 지원함으로써, AWS 상의 NVIDIA Vera Rubin 아키텍처는 고객에게 강력한 네트워킹 옵션을 제공하면서 AWS 클라우드 인프라와 완전한 호환성을 유지하고 새로운 AI 서비스 출시를 가속화합니다.
“GPU 컴퓨팅 수요가 급증하고 있습니다 — 더 많은 컴퓨팅이 더 똑똑한 AI를 만들고, 똑똑한 AI가 더 넓은 활용을 촉진하며, 그 활용이 다시 더 많은 컴퓨팅 수요를 창출합니다. AI의 선순환이 도래했습니다.”라고 NVIDIA 설립자이자 CEO인 Jensen Huang이 말했습니다. “NVIDIA NVLink Fusion이 AWS Trainium4에 도입되면서 우리는 스케일‑업 아키텍처를 AWS 맞춤 실리콘과 통합해 새로운 세대의 가속 플랫폼을 구축하고 있습니다. NVIDIA와 AWS가 함께 AI 산업 혁명을 위한 컴퓨팅 패브릭을 만들고 있으며, 이를 통해 전 세계 모든 기업에 고급 AI를 제공하고, 세계가 인텔리전스로 나아가는 속도를 가속화합니다.”
“AWS와 NVIDIA는 15년 이상 긴밀히 협력해 왔으며, 오늘은 그 여정에서 새로운 이정표를 맞이합니다.”라고 AWS CEO인 Matt Garman이 말했습니다. “NVIDIA와 함께 우리는 대규모 AI 인프라를 한층 발전시켜 고객에게 최고의 성능, 효율성, 확장성을 제공하고 있습니다. 곧 AWS Trainium4, Graviton 및 Nitro System에서 NVIDIA NVLink Fusion을 지원하게 되면 고객은 그 어느 때보다 빠르게 혁신할 수 있는 새로운 역량을 얻게 될 것입니다.”
Convergence of Scale and Sovereignty
AWS는 NVIDIA Blackwell 아키텍처를 포함한 가속 컴퓨팅 포트폴리오를 확대했습니다. 여기에는 NVIDIA HGX B300 및 NVIDIA GB300 NVL72 GPU가 포함되어 있어 고객은 교육 및 추론에 가장 앞선 GPU를 즉시 활용할 수 있습니다. 시각 애플리케이션용으로 설계된 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU도 향후 몇 주 안에 AWS에서 제공될 예정입니다.
이 GPU들은 AWS AI Factories라는 새로운 AI 클라우드 서비스를 지원하는 AWS 인프라 백본의 일부이며, 전 세계 고객에게 자체 데이터 센터에서 고급 AI 서비스를 활용할 수 있는 전용 인프라를 제공하면서 데이터 통제와 현지 규정 준수를 보장합니다.
NVIDIA와 AWS는 전 세계에 주권 AI 클라우드를 구축하기 위해 협력하고 있으며, 점점 엄격해지는 주권 AI 요구사항을 충족하는 안전한 주권 AI 인프라를 제공할 것입니다. 공공 부문 조직을 위해 AWS AI Factories는 연방 슈퍼컴퓨팅 및 AI 환경을 혁신하고, NVIDIA Blackwell GPU와 전체 스택 NVIDIA 가속 컴퓨팅 플랫폼(예: NVIDIA Spectrum‑X 이더넷 스위치)을 결합한 AWS의 신뢰성 높고 안전하며 확장 가능한 클라우드 서비스를 원활히 통합할 수 있게 합니다.
통합된 아키텍처는 고객이 고급 AI 서비스를 이용하고, 대규모 모델을 학습·배포하며, 자체 데이터에 대한 절대적인 통제권을 유지하면서 현지 규제 프레임워크를 완전히 준수할 수 있도록 보장합니다.
NVIDIA Nemotron Integration With Amazon Bedrock Expands Software Optimizations
하드웨어를 넘어, 이번 파트너십은 NVIDIA 소프트웨어 스택을 AWS AI 생태계와 통합합니다. NVIDIA Nemotron 오픈 모델이 이제 Amazon Bedrock과 통합되어 고객이 생산 규모의 생성 AI 애플리케이션 및 에이전트를 구축할 수 있게 되었습니다. 개발자는 Nemotron Nano 2와 Nemotron Nano 2 VL을 활용해 텍스트, 코드, 이미지, 비디오를 고효율·고정밀로 처리하는 특화된 에이전트 AI 애플리케이션을 만들 수 있습니다.
이 통합을 통해 고성능 오픈 NVIDIA 모델을 Amazon Bedrock의 서버리스 플랫폼을 통해 즉시 사용할 수 있게 되며, 검증된 확장성과 인프라 관리 제로를 제공합니다. CrowdStrike와 BridgeWise와 같은 업계 선도 기업이 최초로 이 서비스를 활용해 특화된 AI 에이전트를 배포하고 있습니다.
NVIDIA Software on AWS Simplifies Developer Experience
NVIDIA와 AWS는 소프트웨어 계층에서 공동 엔지니어링을 진행해 모든 기업의 데이터 백본을 가속화하고 있습니다. Amazon OpenSearch Service는 이제 NVIDIA cuVS 기반 서버리스 GPU 가속을 제공해 벡터 인덱스 구축을 지원합니다. cuVS는 GPU 가속 벡터 검색 및 데이터 클러스터링을 위한 오픈소스 라이브러리입니다. 초기 도입자는 비용의 1/4에 불과한 비용으로 벡터 인덱싱 속도가 최대 10배 빨라지고, 검색 지연 시간이 감소하며, 쓰기 속도가 가속화되고, 검색‑보강 생성과 같은 동적 AI 기법의 생산성이 크게 향상된다고 보고했습니다.
프로덕션‑레디 AI 에이전트는 성능 가시성, 최적화 및 확장 가능한 인프라가 필요합니다. 이를 위해 다음을 결합합니다:
- Strands Agents – 에이전트 개발 및 오케스트레이션
- NVIDIA NeMo Agent Toolkit – 심층 프로파일링 및 성능 튜닝
- Amazon Bedrock AgentCore – 안전하고 확장 가능한 에이전트 인프라
이를 통해 조직은 프로토타입에서 프로덕션까지 예측 가능한 전체 경로를 제공하여 개발자를 강화할 수 있습니다.
이 확장된 지원은 기존의 AWS‑NVIDIA 통합을 기반으로 합니다. 여기에는 NVIDIA NIM 마이크로서비스, NVIDIA Riva, NVIDIA BioNeMo와 같은 기술뿐만 아니라 Amazon SageMaker와 Amazon Bedrock에 통합된 모델 개발 도구도 포함됩니다.