🚨1000亿美元 AI 时间炸弹:DeepSeek 为何撕裂市场以及无人想看到的 CapEx 危机

发布: (2026年2月28日 GMT+8 11:56)
8 分钟阅读
原文: Dev.to

Source: Dev.to

Cover Image

我们刚刚结束了2026年第一季度,人工智能行业正经历一次残酷的清醒时刻。那种仅凭炒作驱动的扩张时代已经过去。如今,华尔街和审计师正放大镜般审视一件令许多超大规模云服务商感到恐惧的事:硬件巨额资本支出(CapEx)与实际产生的收入之间的真实关系。

我们对基础模型经济进行了深入的取证审计,结果显示整个生态系统正处于大幅修正的边缘。

如果你是 AI 开发者、机器学习工程师,或仅仅在 LLM API 上构建产品,这将直接影响到你。原因如下。

1. 价格竞争的底线:“DeepSeek 效应”

在 2024 年,我们还以为训练前沿模型要花费数十亿美元。随后 DeepSeek(V3 和 R1) 横空出世,狠狠敲击了整个行业。

  • 虽然 GPT‑5 级别的模型需要庞大的基础设施,DeepSeek 证明只需 不到 600 万美元(约 2,000 块 H800 GPU)就能实现最先进的推理能力。

稀疏 MoE(专家混合)的魔力

对推理 销售成本(COGS) 的影响简直荒唐。DeepSeek 拥有 671 B 参数,但 每生成一个 token 只激活约 37 B 参数(得益于 Multi‑Head Latent Attention(MLA)等架构)。

这在实际中意味着什么?

模型API 价格(输入)API 价格(输出)
GPT‑5‑class~$3.00~$15.00
DeepSeek‑V3~$0.27~$0.28

我们正在谈论 90 % 以上的 token 价格通缩!🤯 纯推理已经成为一种 商品。如果你的创业公司仅仅是转售 API 调用,而没有在代理或应用层面提供巨大价值,那么利润空间即将消失。

DeepSeek vs. GPT‑5 pricing chart

2. 资本支出定时炸弹(以及创造性会计)

据估计,2025 年 “四大”——亚马逊、谷歌、Meta、微软——的资本支出为 3660 亿美元。2026 年的目标是突破 5050 亿美元。红杉资本称其为 “AI 收入黑洞”。

为了证明合理性并防止资产负债表出现大幅亏损,微软、亚马逊和 Alphabet 等公司采用了 “魔法会计调整”:他们 将 GPU 的申报使用年限从 4 年延长至 6 年

过时的现实

从技术上讲,H100 可以保持通电六年,但从财务角度来看——得益于 Blackwell(B200) 架构打破效率纪录——继续运行旧有集群等同于经济自杀,因为每个 token 的能耗成本极高。

如果 Meta 或微软等巨头被迫在 2–3 年(它们的 实际竞争使用寿命)内加速折旧数千台 H100,运营利润率可能会出现严重收缩。这就是会计定时炸弹。

CapEx timeline illustration

3. 未公开的秘密:云循环补贴

AI 初创公司如何如此快速报告上百万美元的收入?很简单:隐藏补贴

  1. 一个 超大规模云服务商(Azure、AWS、GCP)向 AI 初创公司(Anthropic、Mistral、xAI)投资数十亿美元。
  2. 付款并非 100 % 现金,而是 云积分
  3. 初创公司在超大规模云服务商的平台上“消费”这些积分。
  4. 超大规模云服务商向华尔街报告为“天文数字的云收入增长”。 📈

这种资本循环支撑了生态系统的大部分,但在 2026 年第一季度,投资者不再吞下这个故事。他们希望看到 ARR(年度经常性收入)来自真实客户的真实付费

4. 终极“护城河”:硅

如果 NVIDIA 拥有 70 % 的利润率,这相当于对任何不自行制造芯片的 AI 公司直接征收的“税”。

这就是为什么今天真正的防御性护城河属于掌控整个供应链的公司:

  • Google – TPU v6e/Trillium 系列(将 Gemini 的服务成本降低了 78 %)。
  • AWS – Trainium 与 Graviton 芯片。

如果你以 $5,000 USD(TSMC N3 工艺、CoWoS 封装的基础制造成本)购买一块 GPU,而随后以 $40,000 USD 的价格卖给你,在你以几分钱的价格出售代币的情况下,长期来看是不可持续的。

结论:我们开发者的方向何在?

人工智能 并非空洞的泡沫(如互联网泡沫);它是一个 基础设施过剩的泡沫。计算能力被建设得太快、太多。

作为开发者和工程师,主要的收获很明确:

  • AI 是新的电力(商品)。 价值不再体现在基础模型本身,而在于你如何使用该模型结合 专有数据,以及在 特定垂直领域(健康、法律、金融科技)中的应用。
  • 每瓦特的代币数。 竞争不再是谁发布最聪明的模型,而是谁以最少的能源消耗实现同样的功能。
  • 不要仅在 API 上做薄薄的包装,而不提供真正的、领域特定的价值。

底线: 加大对数据、垂直专业知识和能源高效推理的投入。那些掌握“真正护城河”——硬件、数据和能源——的人,将在即将到来的调整中存活下来。

原始 API:如果你的产品只是一个 提示包装器,通缩效应将把你淘汰。未来的代码不再是谁掌握最大的 LLM,而是谁能够用最佳的工程架构编排最高效的模型。

大家有什么想法?在生产环境中,你是否真的看到推理成本下降了?在评论区告诉我吧! 👇💬

0 浏览
Back to Blog

相关文章

阅读更多 »

当工作成为心理健康风险时

markdown !Ravi Mishrahttps://media2.dev.to/dynamic/image/width=50,height=50,fit=cover,gravity=auto,format=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fu...