DeepSeek, 새로운 AI 모델이 ‘세계 수준’ 추론 능력을 가지고 있다고 약속.

발행: (2026년 4월 24일 PM 08:57 GMT+9)
3 분 소요
원문: Engadget

Source: Engadget

Overview

DeepSeek가 최신 AI 모델인 V4 ProV4 Flash를 출시했습니다. 이는 회사가 화제가 된 지 1년 조금 넘은 시점이며, 미국 앱스토어에서 최고 평점을 받은 무료 앱이 된 뒤의 일입니다. 발표에서 DeepSeek는 “비용 효율적인 1 백만 컨텍스트 길이 시대에 오신 것을 환영합니다.”라고 선언했습니다.

컨텍스트 길이는 AI 모델이 한 번의 대화에서 유지할 수 있는 최대 토큰 수를 의미합니다. 컨텍스트 창이 클수록 더 일관되고 자연스러운 장기 대화를 할 수 있습니다. 비교하자면, OpenAI가 최근 발표한 GPT‑5.5는 400 k~1 M 토큰의 컨텍스트 창을 제공합니다.

Model Details

DeepSeek‑V4‑Pro

  • 전체 파라미터: 1.6 조
  • 활성 파라미터: 490억
  • 향상된 에이전시 능력
  • 추론 능력에서 최고 폐쇄형 모델에 버금가며, 세계 지식에서는 Gemini‑3.1‑Pro에 근소하게 뒤처진다고 주장

DeepSeek‑V4‑Flash

  • 전체 파라미터: 2840억
  • 활성 파라미터: 130억
  • V4 Pro보다 빠른 응답 시간
  • 추론 능력이 V4 Pro에 근접하고, 간단한 에이전트 작업에서도 비슷한 성능을 보임

두 모델 모두 오픈소스이며, 사용자는 코드를 자유롭게 다운로드하고 수정할 수 있습니다.

Controversy

DeepSeek가 앱스토어 차트를 석권한 직후, 미국 연방 기관 및 정부 소유 기기에서 사용이 금지되었습니다. 당국은 국가 안보 우려와 미국 AI 주식에 대한 위협을 이유로 들었습니다. 한국에서도 프라이버시 우려로 앱 다운로드가 일시 중단되었습니다.

Announcement

🚀 DeepSeek‑V4 Preview is officially live & open‑sourced! Welcome to the era of cost‑effective 1M context length.
🔹 DeepSeek‑V4‑Pro: 1.6T total / 49B active params. Performance rivaling the world’s top closed‑source models.
🔹 DeepSeek‑V4‑Flash: 284B total / 13B active params. … pic.twitter.com/n1AgwMIymu
DeepSeek (@deepseek_ai) April 24, 2026

0 조회
Back to Blog

관련 글

더 보기 »