AI 发现了 12 个隐藏了 27 年的 OpenSSL 漏洞。你的代码审查已经不够了。

发布: (2026年2月28日 GMT+8 15:56)
10 分钟阅读
原文: Dev.to

Source: Dev.to

请提供您希望翻译的正文内容,我将按照要求保留源链接并将文本翻译成简体中文。

本周打破 AI 安全对话的三件事

全部在几天内相继发生:

  1. AISLE 的 AI 系统 独立发现了 OpenSSL 中的十二个零日漏洞——其中包括自 1998 年以来一直存在的漏洞。
  2. Anthropic 推出了 Claude Code Security,该工具在生产环境的开源代码库中发现了 500 多个漏洞。
  3. 一个名为 OpenClaw 的流行 AI 代理平台因一次关键的远程代码执行(RCE)漏洞而崩溃,随之失去了用户信任。

它们共同讲述了一个故事:AI 已经进入了安全循环的双方

  • 它发现了人类遗漏的安全问题。
  • 它同样创造了人类尚未想象的攻击面。

AISLE的AI系统与OpenSSL零日

  • AI在官方披露之前就发现了OpenSSL 2026年1月安全发布中宣布的全部十二个零日漏洞。
  • 最关键的是CVE‑2025‑15467:CMS消息解析中的堆栈缓冲区溢出,关键(CVSS 9.8,NIST)。即使没有有效的密钥材料,也可能被远程利用。
  • 十二个漏洞中有三个1998–2000起就已存在。

“AI 漏洞发现正在改变网络安全,速度超出预期。” – Bruce Schneier

含义

  • 同一系统可以针对任何代码库进行扫描,包括你的代码库,在你修补之前就发现漏洞。
  • AI 辅助的安全审查不再是可选项——它将先发现的团队与先修补的团队区分开来。

Anthropic的Claude Code Security

  • Powered by Claude Opus 4.6.
  • Result: 500+ vulnerabilities found in production open‑source codebases – bugs that survived decades of human expert review.

为什么 AI 超越人工审查

  • Human reviewers suffer from fatigue, assumption blindness, and context‑switching costs.
  • AI systems can hold an entire dependency graph in context and reason across call chains at scale.

实际建议

If you’re shipping code without AI‑assisted security review in 2026, you have a known blind spot – not a theoretical one.

Source:

OpenClaw 崩溃

  • 在几周内从 0 增长到 100 000+ GitHub 星标
  • 由奥地利开发者 Peter Steinberger 构建,定位为“横向本地‑优先运行时员工”——与 Claude Code 等工具根本不同。

架构区别

功能Claude CodeOpenClaw
执行模型垂直沙箱 – 被召唤、执行任务后即关闭。持久后台运行时 – 24/7 运行,处理持续性工作(如午夜时分的收件箱分流、每周五的 Discord 摘要)。
访问范围有限、短暂的访问。广泛、持续的访问 API 令牌、文件系统、代码执行,基本上是用户整个数字生活的全部权限。
  • 这种持久、广域访问模型让 OpenClaw 强大,但在失效时也 灾难性

CVE‑2026‑25253 – 严重的远程代码执行漏洞。

  • Koi 的研究人员在 ClawHub 市场上发现了 341 个恶意技能(假冒加密交易机器人、部署 Atomic macOS Stealer 及其他信息窃取恶意软件的生产力工具)。

“OpenClaw 的失败不是技术层面的失败,而是 信任模型的失败。” – Sabrina Ramonov

对 AI‑Agent 构建者的关键问题

安全边界到底位于用户的判断之中,还是平台的架构之中?

Perplexity’s “Computer” – A Managed Alternative

  • 发布于 Feb 25, 2026
  • 受管的、沙盒化平台,整合了 19 AI models,覆盖 15 workflow categories
  • 原始算力更低,但 安全性更有保障——权衡是明确的。

构建者决策树

  • 持久后台访问 → 需要 平台级安全保证
  • 会话范围访问 → 用户级评估即可工作。
  • 第三方技能市场 → 你将成为 信任中介,不论你是否愿意。

Source:

阿里巴巴 Qwen 团队 – 新开源模型

  • 发布于 2026 年 2 月 24 日

    • Qwen3.5-122B-A10B
    • Qwen3.5-35B-A3B (最值得关注)
    • Qwen3.5-27B
  • VentureBeat 标题:这些开源模型在本地硬件上提供 Sonnet 4.5 水平的性能。

  • 35B‑A3B 模型采用 Mixture‑of‑Experts 架构,在每次推理时仅激活 3 B 参数——在消费级硬件上可行。

  • 背景:2026 年 2 月是 中国 AI 模型 API 调用量 首次超过美国的月份。开源能力正以比大多数路线图预期更快的速度赶上前沿专有模型。

对构建者的意义

  • 对数据隐私敏感的工作负载、安全测试环境或大规模成本场景,现在可以将 接近前沿的模型 本地部署视为 真实可行的选项,而不只是业余爱好者的实验。
# 拉取并运行 35B‑A3B 模型(使用 Ollama)
ollama pull qwen3.5:35b-a3b
ollama run qwen3.5:35b-a3b

AI‑生成语音诈骗

情景: 一名男子接到自称是妻子、使用她声音的来电,称他们的儿子发生自行车事故,需要 3,000 美元 立即支付。
该号码被伪造,语音是 AI 生成 的。

  • 不是假设——它是本周记录在案的真实案例。

简单、零成本防御

  1. 为任何涉及金钱或敏感操作的紧急情况 设定家庭口令
  2. 来电者必须 说出该口令 以验证身份。
  • 实施时间: 大约 5 分钟。
  • 有效性: 能抵御当前的 AI 语音克隆攻击。

今天就为所有在紧急情况下会向其汇款的人设置口令吧。

要点

  • AI 安全审查是基线,而非额外奖励。
  • Claude Code Security 这样的工具正在发现那些经受了 数十年 专家人工审查仍未被发现的漏洞。
  • 如果你在关键路径(认证、文件解析、网络 I/O)上 没有 使用 AI‑辅助的代码扫描,就会在安全姿态中留下一个 已知的盲点

信任模型与代理权限

您的代理的信任模型 即是您的架构。OpenClaw 的 10 万星坍塌是因为:

  • 持久访问
  • 第三方市场
  • 用户评估的信任

这些因素导致了复合的冲击半径。

设计指南

  • 默认将代理权限设为 会话范围
  • 对更高特权 需要显式提升
  • 永远不要假设用户能够在大规模下审计第三方技能。

本地 AI 部署

本地 AI 部署现已 可用于生产,适用于注重隐私的使用场景。

  • 模型: Qwen 3.5 (35B‑A3B)
  • 性能: 每次推理激活约 30 亿参数 → 适配消费级 GPU。
  • 优势:
    • 设备端接近前沿的能力。
    • 强大的安全测试和本地代码分析。
    • 离线工作流消除数据外泄风险。

自托管 AI 的成本和隐私优势已显著增强。


Source: Zecheng Intel Daily – February 28, 2026

社会工程 – 增长最快的攻击面

社会工程攻击的扩展速度比任何代码漏洞都快:

  • 语音克隆
  • 冒充的电话号码
  • 制造紧迫感

这些攻击不针对你的代码;它们针对的是信任

防御性措施

  • 实施带外验证协议(例如,次要渠道、一次性验证码)。
  • 依赖低技术口令和人工确认,而不仅仅是技术补丁。

完整情报报告

Source: Zecheng Intel Daily – February 28, 2026
Topics: AI, SEO, markets, builder signals.

0 浏览
Back to Blog

相关文章

阅读更多 »

当工作成为心理健康风险时

markdown !Ravi Mishrahttps://media2.dev.to/dynamic/image/width=50,height=50,fit=cover,gravity=auto,format=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fu...