AI 发现了 12 个隐藏了 27 年的 OpenSSL 漏洞。你的代码审查已经不够了。
Source: Dev.to
请提供您希望翻译的正文内容,我将按照要求保留源链接并将文本翻译成简体中文。
本周打破 AI 安全对话的三件事
全部在几天内相继发生:
- AISLE 的 AI 系统 独立发现了 OpenSSL 中的十二个零日漏洞——其中包括自 1998 年以来一直存在的漏洞。
- Anthropic 推出了 Claude Code Security,该工具在生产环境的开源代码库中发现了 500 多个漏洞。
- 一个名为 OpenClaw 的流行 AI 代理平台因一次关键的远程代码执行(RCE)漏洞而崩溃,随之失去了用户信任。
它们共同讲述了一个故事:AI 已经进入了安全循环的双方。
- 它发现了人类遗漏的安全问题。
- 它同样创造了人类尚未想象的攻击面。
AISLE的AI系统与OpenSSL零日
- AI在官方披露之前就发现了OpenSSL 2026年1月安全发布中宣布的全部十二个零日漏洞。
- 最关键的是CVE‑2025‑15467:CMS消息解析中的堆栈缓冲区溢出,关键(CVSS 9.8,NIST)。即使没有有效的密钥材料,也可能被远程利用。
- 十二个漏洞中有三个自1998–2000起就已存在。
“AI 漏洞发现正在改变网络安全,速度超出预期。” – Bruce Schneier
含义
- 同一系统可以针对任何代码库进行扫描,包括你的代码库,在你修补之前就发现漏洞。
- AI 辅助的安全审查不再是可选项——它将先发现的团队与先修补的团队区分开来。
Anthropic的Claude Code Security
- Powered by Claude Opus 4.6.
- Result: 500+ vulnerabilities found in production open‑source codebases – bugs that survived decades of human expert review.
为什么 AI 超越人工审查
- Human reviewers suffer from fatigue, assumption blindness, and context‑switching costs.
- AI systems can hold an entire dependency graph in context and reason across call chains at scale.
实际建议
If you’re shipping code without AI‑assisted security review in 2026, you have a known blind spot – not a theoretical one.
Source: …
OpenClaw 崩溃
- 在几周内从 0 增长到 100 000+ GitHub 星标。
- 由奥地利开发者 Peter Steinberger 构建,定位为“横向本地‑优先运行时员工”——与 Claude Code 等工具根本不同。
架构区别
| 功能 | Claude Code | OpenClaw |
|---|---|---|
| 执行模型 | 垂直沙箱 – 被召唤、执行任务后即关闭。 | 持久后台运行时 – 24/7 运行,处理持续性工作(如午夜时分的收件箱分流、每周五的 Discord 摘要)。 |
| 访问范围 | 有限、短暂的访问。 | 广泛、持续的访问 API 令牌、文件系统、代码执行,基本上是用户整个数字生活的全部权限。 |
- 这种持久、广域访问模型让 OpenClaw 强大,但在失效时也 灾难性。
CVE‑2026‑25253 – 严重的远程代码执行漏洞。
- Koi 的研究人员在 ClawHub 市场上发现了 341 个恶意技能(假冒加密交易机器人、部署 Atomic macOS Stealer 及其他信息窃取恶意软件的生产力工具)。
“OpenClaw 的失败不是技术层面的失败,而是 信任模型的失败。” – Sabrina Ramonov
对 AI‑Agent 构建者的关键问题
安全边界到底位于用户的判断之中,还是平台的架构之中?
Perplexity’s “Computer” – A Managed Alternative
- 发布于 Feb 25, 2026。
- 受管的、沙盒化平台,整合了 19 AI models,覆盖 15 workflow categories。
- 原始算力更低,但 安全性更有保障——权衡是明确的。
构建者决策树
- 持久后台访问 → 需要 平台级安全保证。
- 会话范围访问 → 用户级评估即可工作。
- 第三方技能市场 → 你将成为 信任中介,不论你是否愿意。
Source: …
阿里巴巴 Qwen 团队 – 新开源模型
-
发布于 2026 年 2 月 24 日:
Qwen3.5-122B-A10BQwen3.5-35B-A3B(最值得关注)Qwen3.5-27B
-
VentureBeat 标题:这些开源模型在本地硬件上提供 Sonnet 4.5 水平的性能。
-
35B‑A3B 模型采用 Mixture‑of‑Experts 架构,在每次推理时仅激活 3 B 参数——在消费级硬件上可行。
-
背景:2026 年 2 月是 中国 AI 模型 API 调用量 首次超过美国的月份。开源能力正以比大多数路线图预期更快的速度赶上前沿专有模型。
对构建者的意义
- 对数据隐私敏感的工作负载、安全测试环境或大规模成本场景,现在可以将 接近前沿的模型 本地部署视为 真实可行的选项,而不只是业余爱好者的实验。
# 拉取并运行 35B‑A3B 模型(使用 Ollama)
ollama pull qwen3.5:35b-a3b
ollama run qwen3.5:35b-a3b
AI‑生成语音诈骗
情景: 一名男子接到自称是妻子、使用她声音的来电,称他们的儿子发生自行车事故,需要 3,000 美元 立即支付。
该号码被伪造,语音是 AI 生成 的。
- 这 不是假设——它是本周记录在案的真实案例。
简单、零成本防御
- 为任何涉及金钱或敏感操作的紧急情况 设定家庭口令。
- 来电者必须 说出该口令 以验证身份。
- 实施时间: 大约 5 分钟。
- 有效性: 能抵御当前的 AI 语音克隆攻击。
今天就为所有在紧急情况下会向其汇款的人设置口令吧。
要点
- AI 安全审查是基线,而非额外奖励。
- 像 Claude Code Security 这样的工具正在发现那些经受了 数十年 专家人工审查仍未被发现的漏洞。
- 如果你在关键路径(认证、文件解析、网络 I/O)上 没有 使用 AI‑辅助的代码扫描,就会在安全姿态中留下一个 已知的盲点。
信任模型与代理权限
您的代理的信任模型 即是您的架构。OpenClaw 的 10 万星坍塌是因为:
- 持久访问
- 第三方市场
- 用户评估的信任
这些因素导致了复合的冲击半径。
设计指南
- 默认将代理权限设为 会话范围。
- 对更高特权 需要显式提升。
- 永远不要假设用户能够在大规模下审计第三方技能。
本地 AI 部署
本地 AI 部署现已 可用于生产,适用于注重隐私的使用场景。
- 模型: Qwen 3.5 (35B‑A3B)
- 性能: 每次推理激活约 30 亿参数 → 适配消费级 GPU。
- 优势:
- 设备端接近前沿的能力。
- 强大的安全测试和本地代码分析。
- 离线工作流消除数据外泄风险。
自托管 AI 的成本和隐私优势已显著增强。
Source: Zecheng Intel Daily – February 28, 2026
社会工程 – 增长最快的攻击面
社会工程攻击的扩展速度比任何代码漏洞都快:
- 语音克隆
- 冒充的电话号码
- 制造紧迫感
这些攻击不针对你的代码;它们针对的是信任。
防御性措施
- 实施带外验证协议(例如,次要渠道、一次性验证码)。
- 依赖低技术口令和人工确认,而不仅仅是技术补丁。
完整情报报告
Source: Zecheng Intel Daily – February 28, 2026
Topics: AI, SEO, markets, builder signals.