DeepSeek承诺其新AI模型具备‘世界级’推理能力

发布: (2026年4月24日 GMT+8 19:57)
3 分钟阅读
原文: Engadget

Source: Engadget

概览

DeepSeek 在公司走红并成为美国 App Store 免费应用排行榜首位一年多后,发布了最新的 AI 模型 V4 ProV4 Flash。在公告中,DeepSeek 宣称:“欢迎来到成本效益极高的 100 万上下文长度时代。”

上下文长度指的是 AI 模型在单次对话中能够保留的最大 token 数量。更大的上下文窗口可以实现更连贯、一致的长对话。作对比,OpenAI 最近公布的 GPT‑5.5 提供 40 万至 100 万 token 的上下文窗口。

模型细节

  • DeepSeek‑V4‑Pro

    • 总参数量:1.6 万亿
    • 活跃参数量:490 亿
    • 增强的代理能力
    • 声称在推理方面可与顶级闭源模型竞争,仅在世界知识方面落后于 Gemini‑3.1‑Pro
  • DeepSeek‑V4‑Flash

    • 总参数量:284 0亿
    • 活跃参数量:130 亿
    • 响应速度快于 V4 Pro
    • 推理能力接近 V4 Pro,且在简单代理任务上的表现相当

两款模型均保持开源,用户可以自行下载并修改代码。

争议

在 DeepSeek 登顶 App Store 榜单后不久,它被 美国联邦机构及政府拥有的设备禁止使用。当局以国家安全顾虑和对美国 AI 股市的潜在威胁为由实施禁令。韩国也因隐私担忧 暂停了该应用的下载

公告

🚀 DeepSeek‑V4 预览已正式上线并开源!欢迎来到成本效益极高的 1M 上下文长度时代。
🔹 DeepSeek‑V4‑Pro: 1.6T 总参数 / 49B 活跃参数。性能媲美全球顶级闭源模型。
🔹 DeepSeek‑V4‑Flash: 284B 总参数 / 13B 活跃参数。… pic.twitter.com/n1AgwMIymu
DeepSeek (@deepseek_ai) 2026年4月24日

0 浏览
Back to Blog

相关文章

阅读更多 »