NVIDIA, Mistral AI와 파트너십을 맺어 새로운 오픈 모델 패밀리를 가속화
발행: (2025년 12월 3일 오전 03:00 GMT+9)
5 min read
원문: NVIDIA AI Blog
Source: NVIDIA AI Blog
Announcement
오늘, Mistral AI가 NVIDIA 슈퍼컴퓨팅 및 엣지 플랫폼 전반에 최적화된 다국어·다중모달 오픈소스 모델인 Mistral 3 패밀리를 발표했습니다. 모델은 클라우드, 데이터센터, 엣지 어디서든 사용할 수 있으며, 12월 2일 화요일부터 제공됩니다.
Model Overview
- Mistral Large 3는 mixture‑of‑experts (MoE) 모델입니다. 각 토큰마다 모든 뉴런을 활성화하는 대신 가장 영향력 있는 부분만 활성화해 정확도를 유지하면서 효율성을 제공합니다.
- 41 B 활성 파라미터, 675 B 전체 파라미터, 256 K 컨텍스트 윈도우를 갖추어 기업 AI 워크로드에 대한 확장성과 적응성을 제공합니다.
- Mistral AI는 엣지 디바이스에서 AI를 실행하도록 최적화된 Mistral 3 스위트의 작은 언어 모델 9종도 함께 공개했습니다.
Hardware Integration
- NVIDIA GB200 NVL72 시스템과 Mistral AI의 MoE 아키텍처를 결합하면, 기업은 대규모 AI 모델을 효율적으로 배포·확장할 수 있으며, 고급 병렬 처리와 하드웨어 최적화의 혜택을 누릴 수 있습니다.
- 세분화된 MoE 설계는 NVIDIA NVLink의 코히런트 메모리 도메인과 폭넓은 전문가 병렬화 최적화를 활용합니다.
- 정확도를 유지하면서도 낮은 정밀도의 NVFP4와 NVIDIA Dynamo 분산 추론 최적화가 학습 및 추론 성능을 추가로 향상시킵니다.
- GB200 NVL72에서 Mistral Large 3는 이전 세대 NVIDIA H200 대비 성능 향상을 달성했으며, 이는 토큰당 비용 감소, 에너지 효율 향상, 사용자 경험 개선으로 이어집니다.
Edge Deployment
- 컴팩트한 Mistral 3 스위트는 NVIDIA Spark, RTX PC·노트북, NVIDIA Jetson 디바이스 등 NVIDIA 엣지 플랫폼 전반에서 실행됩니다.
- NVIDIA는 Llama.cpp와 Ollama와 같은 주요 AI 프레임워크와 협력해 엣지 GPU에서 최고의 성능을 제공하고 있습니다.
- 개발자는 Llama.cpp와 Ollama를 통해 엣지에서 빠르고 효율적인 AI를 체험할 수 있습니다.
Open‑Source Ecosystem
- Mistral 3 모델은 오픈소스로 제공되어 연구자와 개발자가 자유롭게 실험·커스터마이징·AI 혁신을 가속화할 수 있습니다.
- NVIDIA NeMo 도구(데이터 디자이너, 커스터마이저, 가드레일, NeMo Agent Toolkit)와의 통합을 통해 기업은 특정 사용 사례에 맞게 모델을 맞춤화하고 프로토타입에서 프로덕션으로 전환하는 속도를 높일 수 있습니다.
- NVIDIA는 TensorRT‑LLM, SGLang, vLLM 등 Mistral 3 패밀리를 위한 추론 프레임워크를 최적화했습니다.
Availability
- Mistral 3는 오늘부터 주요 오픈소스 플랫폼 및 클라우드 서비스 제공업체에서 이용할 수 있습니다.
- 모델은 곧 NVIDIA NIM 마이크로서비스 형태로도 배포될 예정입니다.
소프트웨어 제품 정보에 관한 공지사항을 확인하십시오.