本周 AI Agents 席卷全球 (2026年3月)
Source: Dev.to
每周 AI 代理汇总
还记得“AI 代理”曾经只是一款带待办清单的聊天机器人吗?那是六个月前的事了。
下面是一段简洁的 markdown 格式回顾,列出本周最重要的 AI 代理新闻。
1️⃣ NVIDIA — NemoClaw(企业级开源代理平台)
- 它是什么: 为企业打造的开源 AI 代理平台,使代理能够真正执行工作流任务(例如自动生成报告、数据管道编排、工单路由)。
- 灵感来源: 直接模仿 OpenClaw,这款个人代理项目在 GitHub 上获得约 29.7 万星。
- 时间线: 完整发布计划在 2026 年 3 月 15 日 的 GTC 2026 上公布。
- 市场反应: CNBC 报道 NVIDIA 股价因该公告上涨 2.7 %。
- 要点: NVIDIA 正在将 AI 代理定位为每个企业软件栈的下一个“计算层”。只要黄仁勋站台, hype 已经转化为具体路线图。
2️⃣ OpenAI — GPT‑5.4 与 Codex Security
| 功能 | 细节 |
|---|---|
| GPT‑5.4(2023 年 3 月 5 日发布) | • 1 000 000 token 上下文窗口(约 75 万词)——足以一次性读取整个代码库、完整公司文档或一整年的邮件。 • “自我引导”生成——模型在回复过程中规划步骤。 • 行业知识任务的胜率提升至 83 %(GPT‑5.2 为 70.9 %)。 |
| ChatGPT for Excel | 通过自然语言模型,使用实时 FactSet 与 Moody’s 数据构建财务模型。 |
| Codex Security(Beta 于 3 月 6 日上线) | • AI 驱动的代码审计器,扫描了 120 万次提交。 • 发现 792 处关键 和 10 561 处高危 漏洞。 • 捕获了跨租户身份验证漏洞,传统工具和人工均未发现。 |
要点: GPT‑5.4 展示了原始能力,而 Codex Security 才是能够真正改变开发团队交付代码方式的产品——通过 AI 生成的开发速度实现安全审查自动化。
3️⃣ Anthropic — Claude Code(代码审查代理小队)
- 发布: 昨天(相对于本文发布时间)。
- 工作原理: 同时调度多个 AI 代理对每个 Pull Request 进行审查,每个代理专注于不同维度(逻辑错误、安全缺陷、架构、测试覆盖缺口)。
- 意义所在:
- AI 辅助编码工具(Claude Code、Codex、Cursor)导致 PR 量激增;人工审查跟不上。
- Anthropic 内部数据表明,每个 PR 的代码交付率在提升,审查瓶颈愈发严重。
- 背景: Anthropic 正经历“2026 年怪兽年”——收入增长、与微软合作将 Claude 融入 Copilot、以及因五角大楼黑名单而持续的诉讼。
- 要点: 代码审查市场已经变得严肃。随着 OpenAI 的 Codex Security 与 Anthropic 的 Claude Code Review 同周发布,安全优先的代理工具已成为竞争焦点。
4️⃣ Microsoft‑Anthropic 合作 — Copilot Cowork
- 产品: 基于 Anthropic Claude 的企业 AI 代理,随 $30 / 用户 / 月 的 M365 Copilot 计划一起提供。
- 能力: 通过 Claude Sonnet 模型处理日程安排、文档合成、跨应用自动化等工作流任务。
- 来龙去脉:
- Anthropic 最初推出 Cowork,这款基于 Claude 的代理引发了市场恐慌(“SaaS‑pocalypse”),导致微软估值下跌。
- 微软的回应是:“打不赢就授权。”
- 要点: 微软的采纳表明 Anthropic 的代理技术已成为企业 AI 代理的事实标准。所谓的“AI 代理冷战”已从竞争转向供应链合作。
5️⃣ 学生黑客机器人 — Einstein(作者:Advait Paliwal,22 岁)
- 它的功能:
- 登录 Canvas(主流学习管理系统)。
- 下载所有作业。
- 解题并生成 PDF 答案页。
- 自动提交作业。
(未完,敬请期待下一部分。)
- Tech stack: 运行于 OpenClaw(同一套启发 NVIDIA NemoClaw 的个人代理框架)。
- Impact:
- 《高等教育纪事》 称其为危机。
- 教育类播客为此故事专门制作了完整节目。
- 各大学召开紧急会议,讨论学术诚信政策。
- Takeaway: 即使是相对“现成”的代理,只要配合强大的大语言模型,也能颠覆整个行业。高等教育领域如今面临真实的 AI 作弊问题。
TL;DR
| Company | Agent Product | Core Value |
|---|---|---|
| NVIDIA | NemoClaw(企业级) | 将代理转化为工作流自动化的新计算层。 |
| OpenAI | GPT‑5.4 + Codex Security | 大规模上下文 + AI 驱动的代码安全。 |
| Anthropic | Claude Code Review | 并行 AI 小队真正审查 AI 生成的代码。 |
| Microsoft | Copilot Cowork(Claude 驱动) | 企业工作流代理深度集成到 M365 中。 |
| Individual (Advait Paliwal) | Einstein(OpenClaw) | 展示了一个简单代理如何颠覆整个行业(高等教育)。 |
AI 代理已经从“可有可无”的实验,转变为 软件和业务流程的下一层基础。本周的公告证明,竞争不再是谁能构建聊天机器人,而是 谁能大规模交付可靠、安全、面向企业的代理。
AI 代理生态与“Einstein”时刻
Access 正在做代理设计的本职工作。Paliwal 基本上用 vibe‑code 实现了它,让互联网作出反应。无论 Einstein 是恶作剧还是产品都无关紧要——它暴露了一个根本性问题:所有为人类交互而设计的系统——LMS 平台、表单、门户——现在都成为了 AI 的攻击面。代理每个月都在变得更擅长在这些系统中导航。
要点: Einstein 并不特殊。任何有能力的 AI 代理都能做到 Einstein 所做的事。这才是真正的危机。
“SAI” 与 “AGI” – 辩论
Meta 的首席 AI 科学家发表了一篇引发激烈讨论的论文。Yann LeCun 认为 “AGI”(人工通用智能)是一个根本上有缺陷的概念,并提出用 “SAI” — 超人类可适应智能 来取代它。
LeCun 的论点
- 人类智能并不是“通用的”;我们是能够快速适应新领域的专家。
- 我们没有通用的大脑;我们拥有的是高度可适应的大脑。
- 构建在所有方面都“通用”的 AI 是错误的目标。
- 构建 能够比人类更快适应特定领域的 AI 是可实现且更有用的。
反驳
AGI 研究者 Ben Goertzel 在 Substack 上回击,认为 SAI 只是 AGI 的一个子集,而不是替代品。
对从业者的意义: 不要再等待神奇的通用 AI。构建能够适应的系统。
实际对齐
本周所有主要的代理(agent)发布都聚焦于 专门化适应——代码审查代理、安全代理、企业工作流代理。没有人发布“AGI”;他们发布的是在特定任务上表现极佳的工具。
结论: LeCun 可能是对的。当前获胜的 AI 系统并非“通用”——它们是能够适应特定工作流的专门化代理。这就是实践中的 SAI,无论我们是否这样称呼它。
值得注意的数据点
- **Gartner 预测:**2026 年全球 AI 支出为 2.52 万亿美元(包括部署,而不仅是研发)。
- Google Gemini 3.1 Flash‑Lite 于 3 月 3 日推出,费用为每 百万输入 token 0.25 美元——比 Gemini 2.5 Flash 快 2.5×。零成本推理的竞争正在加速。
- **企业 AI 采用情况:**70 % 的企业已在运行 AI 代理,但大多数在身份和访问管理方面薄弱。The Hacker News 将这些未受管理的代理称为 “identity dark matter”——强大、不可见且缺乏治理。
- **能源承诺:**7 家主要 AI 公司签署了 White House 承诺,承担数据中心的电力费用,表明对能源消耗的严肃讨论。
- **OpenClaw:**获得 297 K GitHub 星标,成为有史以来星标最多的 AI 项目。NVIDIA 基于相同理念构建 NemoClaw,验证了整个方法。
快速常见问题
- NemoClaw 是什么?
- GPT‑5.4 与 GPT‑5.2 有何区别?
- Codex Security 是什么?
- Anthropic Code Review 是什么?
- SAI(超人类可适应智能)是什么?
(这些问题的答案可以在未来的帖子中展开。)
关于作者
我是 Chase Xu —— CV 工程师、AI 安全研究员,昨晚亲自审计自己的 AI 代理程序以检测恶意软件。我每周撰写一次真正重要的 AI 新闻汇总。没有炒作。没有废话。只提供你需要了解的内容。
标签: Artificial Intelligence, Machine Learning, Cybersecurity, AI Ethics, Technology