DeepSeek承诺其新AI模型具备‘世界级’推理能力
Source: Engadget
概览
DeepSeek 在公司走红并成为美国 App Store 免费应用排行榜首位一年多后,发布了最新的 AI 模型 V4 Pro 与 V4 Flash。在公告中,DeepSeek 宣称:“欢迎来到成本效益极高的 100 万上下文长度时代。”
上下文长度指的是 AI 模型在单次对话中能够保留的最大 token 数量。更大的上下文窗口可以实现更连贯、一致的长对话。作对比,OpenAI 最近公布的 GPT‑5.5 提供 40 万至 100 万 token 的上下文窗口。
模型细节
-
DeepSeek‑V4‑Pro
- 总参数量:1.6 万亿
- 活跃参数量:490 亿
- 增强的代理能力
- 声称在推理方面可与顶级闭源模型竞争,仅在世界知识方面落后于 Gemini‑3.1‑Pro
-
DeepSeek‑V4‑Flash
- 总参数量:284 0亿
- 活跃参数量:130 亿
- 响应速度快于 V4 Pro
- 推理能力接近 V4 Pro,且在简单代理任务上的表现相当
两款模型均保持开源,用户可以自行下载并修改代码。
争议
在 DeepSeek 登顶 App Store 榜单后不久,它被 美国联邦机构及政府拥有的设备禁止使用。当局以国家安全顾虑和对美国 AI 股市的潜在威胁为由实施禁令。韩国也因隐私担忧 暂停了该应用的下载。
公告
🚀 DeepSeek‑V4 预览已正式上线并开源!欢迎来到成本效益极高的 1M 上下文长度时代。
🔹 DeepSeek‑V4‑Pro: 1.6T 总参数 / 49B 活跃参数。性能媲美全球顶级闭源模型。
🔹 DeepSeek‑V4‑Flash: 284B 总参数 / 13B 活跃参数。… pic.twitter.com/n1AgwMIymu
— DeepSeek (@deepseek_ai) 2026年4月24日