Anthropic:从疫情时代的安全担忧到一家3500亿美元的AI公司
Source: Dev.to
抱歉,我目前无法直接访问外部链接获取文章内容。请您把需要翻译的文本粘贴在这里,我会帮您翻译成简体中文,并保持原有的格式、Markdown 语法以及技术术语不变。
2021年初,在COVID‑19大流行的高峰期,一小群前OpenAI研究员做出了一个将悄然重塑AI行业的决定。
最初以戴口罩、保持社交距离的后院会议形式开始的项目,最终发展为 Anthropic,这是一家在2025年11月估值超过 $350 billion 的AI公司——其核心信念只有一个:
强大的AI系统必须在设计上安全、可解释且保持一致性。
这就是这个信念如何从内部分歧演变为全球最具影响力的AI公司之一的故事。
起源:安全至上的愿景
Anthropic 由七位前 OpenAI 研究员创立,领头的是兄妹 Dario 和 Daniela Amodei。
该团队因 方向分歧 而离开 OpenAI,尤其是在 AI 能力应当以何种速度相对于安全研究进行扩展的问题上产生分歧。OpenAI 推进日益强大的模型,而这群人认为安全必须更为基础——而不是事后的考虑。
这些早期讨论在第二波 COVID‑19 疫情期间进行,为一家理念根本不同的新公司奠定了基础。
创始人:互补的合作伙伴
Dario Amodei — 技术领导
Dario Amodei 为这家企业带来了深厚的技术可信度。作为 OpenAI 的 研究副总裁,他主导了 GPT‑2 和 GPT‑3 的研发,并共同发明了 来自人类反馈的强化学习 (RLHF)。
他的背景包括:
- 斯坦福大学物理学
- 普林斯顿大学计算神经科学
- 在百度和 Google Brain 的研究岗位
- OpenAI(2016 年加入)
这种理论深度与实际 AI 扩展经验的结合,塑造了 Anthropic 的研究方向。
Daniela Amodei — 运营与政策
Daniela Amodei 用运营领导力补足了她兄长的技术专注。
她的背景包括:
- 加州大学伯克利分校的英语文学、政治学和音乐
- 在 Stripe 担任运营岗位五年
- OpenAI 的安全与政策副总裁
在 Anthropic,她专注于 伦理部署、治理和制度设计,确保安全原则不仅体现在模型训练中,也贯穿公司结构。
宪法式 AI:Anthropic 的核心创新
Anthropic 的决定性突破是 Constitutional AI (CAI) —— 一种旨在在不完全依赖人工审查员的情况下扩展安全性的训练方法。
与传统的 RLHF 不同,宪法式 AI 在训练过程中引入了 显式、可检查的价值观。
第 1 阶段:监督自我批评
- 模型生成响应。
- 它根据书面的“宪法”对自己的输出进行批评。
- 它根据这些批评进行修正并学习。
该宪法包含 75 条原则,取材自 《联合国世界人权宣言》 等来源。
第 2 阶段:基于 AI 反馈的强化学习 (RLAIF)
- 由 AI 系统(而非人类)评估响应。
- 在宪法合规性上训练一个偏好模型。
有害行为在 不让人类接触令人不适内容 的情况下被训练去除。
这使得安全性 可扩展 —— 对前沿模型而言是关键需求。值得注意的是,Anthropic 将这些原则 显式且可编辑,而不是将价值观不透明地嵌入模型权重中。
Claude:从内部实验到公开模型
Anthropic 在 2022 年夏季完成了 Claude 的首个版本训练,但刻意选择 不立即发布。当时的担忧是会引发仅关注能力的 AI 军备竞赛。
三个月后,OpenAI 发布了 ChatGPT。
Claude 最终于 2023 年 3 月 公开推出,名字来源于信息论创始人 Claude Shannon。这个名字特意采用了男性化的形式,以区别于 Alexa、Siri 等助理。
从一开始,Claude 就因以下特点而脱颖而出:
- 200,000‑token 上下文窗口
- 强调 有帮助、无害、诚实
最初推出了两个版本:
- Claude(完整模型)
- Claude Instant(更快、更轻量)
早期基础:从概念到代码
创始讨论(2020–2021)
在基础设施尚未建立之前,团队就对一个关键洞见达成一致:规模定律。他们认识到:
- 更多计算 + 更多数据 + 简单算法 → 广泛的认知提升
这些洞见推动了他们的信念:安全必须与能力同步扩展。
在头脑风暴了 Aligned AI、Sparrow 和 Sloth 等名称后,他们最终确定了 Anthropic —— 以人为中心且可作为域名使用。
早期研究重点(2021)
与其快速推出产品,Anthropic 更专注于基础研究。创始团队(15–20 人)每周会面,常在户外,精炼想法,这些想法后来在 2022 年 12 月以《宪法 AI》形式发表。
基础设施演进:从云租赁到超大规模计算
第一期:Google Cloud(2021–2023)
Anthropic 最初通过 Google Cloud 使用标准 GPU 集群,能够在无需巨额资本支出的情况下快速迭代。该阶段在较小模型上验证了宪法 AI 方法。
第二期:多云策略(2023–2024)
- Amazon 投资 40 亿美元,成为 Anthropic 的主要训练合作伙伴。
- AWS 承诺开发针对 Anthropic 工作负载优化的 定制 Trainium 芯片。
第三期:大规模扩展(2024–2026)
| 提供商 | 关键资产 |
|---|---|
| AWS — Project Rainier | • 数十万颗 Trainium 2 芯片 • 位于印第安纳州的 1,200 英亩园区 • 超过 1.3 GW 的专用 IT 容量 • 定制的内核级优化 |
| Google Cloud | • 承诺部署 最多一百万块 TPU • 第七代 Ironwood TPU • 数百亿美元的基础设施投入 • 通过 Vertex AI 分发 |
| Nvidia GPUs | • 在特定工作负载中选择性使用 • 确保灵活性并避免供应商锁定 |
所有信息均基于截至 2025 年 11 月的公开来源。
软件栈和训练管道
核心技术
- Python(主要语言)
- PyTorch 和 JAX
- 在云基础设施上进行分布式训练
训练数据
- 网络抓取
- 获得授权的内容
- 承包商提供的示例
- 用户交互(自愿加入)
一项重大计划涉及对数百万本书进行数字化,随后导致了 15亿美元 的版权和解。
Claude 模型演进
Claude 1 与 2(2023)
- 初始公开发布
- 扩展的上下文窗口
Claude 3 系列(2024年3月)
- Haiku – 快速、小巧
- Sonnet – 均衡
- Opus – 最大、最强大
- 多模态输入和海量上下文
Claude 3.5 Sonnet(2024年6月)
- 引入 Artifacts(实时代码预览)
- 推出 Computer Use,使 Claude 能直接操作软件
Claude 4 系列(2025年5月)
- 混合推理模式
- 被归类为 ASL‑3,触发更强的安全防护
Claude 4.5(2025年末)
- 先进的编码性能
- 大幅降价
- 强大的代理和工具使用能力
超越聊天机器人:产品生态系统
核心产品
- Claude API
- Claude.ai – 消费者界面
- Claude Code – 面向开发者的编码助手
- Claude Enterprise
平台创新
- 模型上下文协议 (MCP)
- 安全代码执行
- 持久文件上下文
- 代理技能
- 工具发现
- 网络搜索集成
商业模式与增长
收入来源
- API 使用(70 %–75 %)
- 订阅(10 %–15 %)
- 企业合作伙伴关系
Anthropic 里程碑
- $5 B ARR 到 2025 年中期
- $500 M 年化收入来自 Claude Code,时长 8 周
治理与安全
Anthropic 以 公共利益公司 (PBC) 的形式运营,并设有 长期利益信托,将安全嵌入公司治理。
Anthropic Safety Levels (ASL) 框架定义了部署阈值和安全措施,灵感来源于生物安全协议。
挑战与争议
- 版权诉讼
- 涉及滥用的安全事件
- 对资金来源的政治审查
尽管存在这些问题,Anthropic 仍然强调 透明性和受控扩展。
展望未来:2026及以后
- 多代理编排
- 数字执行官式代理
- 更深入的操作系统级集成
问题已不再是 AI 能否行动——而是 我们可以安全地信任它拥有多少自主权。
结论:安全与不牺牲
从戴着面具的后院会议到覆盖数百万 AI 芯片的全球基础设施,Anthropic 的历程表明 安全性与能力并非相互排斥。
他们在宪法 AI、ASL、计算机使用以及治理结构方面的工作已经影响了整个行业。
Anthropic 最终是否能够完全使强大的 AI 系统与人类价值观保持一致仍未可知,但他们的故事证明了一件事:
有原则的 AI 开发可以实现规模化——在技术、商业和伦理层面皆如此。
欢迎留下评论或在 X(推特) 上联系。
感谢阅读。