当 AI 学会黑客
Source: Dev.to
概览
凌晨 3:47 ,Mark Stockley 的屏幕上弹出通知:又一个零日漏洞被武器化,这一次仅用了 22 分钟。作为 Malwarebytes 的安全研究员,Stockley 已经习惯了快速的漏洞利用开发,但人工智能正在彻底改写规则手册。
“我认为最终我们将生活在一个大多数网络攻击由代理执行的世界,”他在最近的简报中警告同事。“这真的只是我们到达那里的速度问题。”
这个未来到来的速度比任何人预期的都要快。2025 年初,网络安全研究人员记录到前所未有的现象:AI 系统在没有人为干预的情况下自主发现、利用并武器化安全缺陷。机器驱动的黑客时代不仅已经开始——它正以惊人的速度加速。
考虑这个严峻的现实:据网络安全研究人员统计,全球 87 % 的组织在过去一年中遭遇了 AI 驱动的网络攻击。更令人担忧的是,2024 年下半年钓鱼邮件数量增长了 202 %,其中 82.6 % 的钓鱼邮件以某种形式使用了 AI 技术——这一成功率足以让传统诈骗者羡慕得泪流满面。
对于普通人在这片数字雷区中航行来说,影响深远。个人数据、金融信息和数字身份不再只是机会主义犯罪分子的目标;它们已成为日益自动化的猎场中的活靶,AI 系统可以在你说出“可疑邮件”之前就构造出个性化攻击。
但这里有个悖论:AI 在赋能攻击者的同时,也在为防御者提供超级动力。正是同样的技术让快速漏洞利用成为可能,同时也在彻底革新个人网络安全。问题不在于 AI 是否会主导威胁格局——而在于当它主导时,你是否已经做好准备。
机器黑客的崛起
要理解 AI 如何彻底改变网络安全,看看 2024 年末微软研究实验室里发生的事。科学家们向一个名为 Auto Exploit 的 AI 系统喂入漏洞信息,惊讶地看到它在数小时内生成可工作的概念验证攻击,而不是数月。过去,武器化新发现的安全缺陷需要大量人工专业知识和时间。现在,算法可以自动完成整个过程。
“基于大语言模型的软体分析与漏洞利用生成的持续发展,将导致概念验证代码在数小时内完成,而不是数月、数周甚至数天,”目睹演示的研究人员警告道。其影响在安全社区中如同数字地震般蔓延。
这项技术并未局限于实验室。到 2025 年初,网络犯罪分子已经在积极部署名为 WormGPT、FraudGPT 等不祥名称的 AI 驱动工具。这些系统能够自动扫描漏洞、用数十种语言编写令人信服的钓鱼邮件,甚至按需生成全新恶意软件变种。安全公司报告称,2024 年 AI 生成的恶意软件增长了 40 %,且每个变种都与前一个略有不同——使传统基于签名的检测几乎失效。
CrowdStrike 高级副总裁 Adam Meyers 亲眼目睹了这一转变:
“更高级的对手正在利用它。我们每天都看到越来越多的此类案例。”
他的团队记录到政府支持的黑客使用 AI 进行侦察、评估漏洞利用价值,并生成能够通过高级过滤器的钓鱼信息。
这种民主化尤其令人不安。IEEE 高级会员、Ulster University 网络安全教授 Kevin Curran 解释了更广泛的影响:
“创新让创建和适配软件变得前所未有的容易,这意味着即使是相对低技能的行为者也能发动复杂攻击。”
改变一切的那一刻
或许没有哪起事件能比 CVE‑2025‑32711——“EchoLeak”漏洞——更好地说明 AI 的变革性影响。该漏洞在 2025 年初冲击了 Microsoft 生态系统,由 Aim Security 研究员发现,代表了一种全新的零点击攻击:针对 AI 代理的攻击。
漏洞存在于 Microsoft 365 Copilot 中,这是一款数百万用户依赖的 AI 助手,用于提升生产力。通过一种称为 prompt injection 的技术,攻击者可以在看似无害的电子邮件或文档中嵌入恶意指令。当 Copilot 处理这些文件时,它会自动搜索用户的私人数据——电子邮件、OneDrive 文件、SharePoint 内容、Teams 消息——并将敏感信息传输到攻击者控制的服务器。
最可怕的方面是什么?根本不需要用户交互。受害者无需点击可疑链接或下载恶意附件,仅仅让 Copilot 处理被武器化的文档就足以导致数据泄露。
“该漏洞在 AI 安全研究中具有重要突破意义,因为它展示了攻击者如何在完全不需要任何用户交互的情况下,自动从 Microsoft 365 Copilot 的上下文中窃取最敏感的信息,”Aim Security 联合创始人兼 CTO Adir Gruss 解释道。
Microsoft 快速修补了该缺陷,但事件凸显了一个令人警醒的现实:本意帮助用户的 AI 系统可能被精准反向利用。该漏洞获得了 Microsoft 给出的 CVSS 评分 9.3(国家漏洞数据库评分 7.5),几乎达到了安全缺陷的最高严重程度,并表明 AI 代理本身已成为主要攻击目标。
深度伪造盗走数百万
虽然技术漏洞抢占头条,AI 对普通人的最具破坏性的影响往往来自社会工程——即操纵人类而非机器的艺术。深度伪造技术曾局限于好莱坞制片厂和研究实验室,如今已被大规模武器化。
2024 年1月,英国工程公司 Arup 在其香港办公室因诈骗者在视频会议中使用深度伪造技术而损失了 2500 万美元。犯罪分子制作了公司高管的逼真视频和音频,诱骗员工批准欺诈性转账。技术之精细让参与者直到为时已晚才察觉异常。
语音克隆攻击同样造成巨大损失。多家银行报告称,2024 年因犯罪分子利用 AI 模仿客户声音并绕过语音认证系统而导致的损失超过 1000 万美元。攻击步骤极其简单:诈骗者从社交媒体帖子、电话或语音邮件中获取语音样本,然后使用 AI 生成逼真的复制品。
到 2024 年,深度伪造已占所有欺诈攻击的 6.5 %——比 2022 年增长了 2,137 %。在金融专业人士中,53 % 报告曾遭遇深度伪造诈骗,且许多人承认难以辨别真实沟通与 AI 伪造内容的区别。
心理影响超出金钱损失。受害者描述自己感到被侵犯和偏执,不确定数字交流是否可信。
“这不仅仅是金钱的问题,”一位语音克隆诈骗受害者说。“更是对自己辨别真伪能力的信心丧失。”
自动化的必然
这些高调事件背后是更根本的转变:网络犯罪操作的全自动化。传统黑客需要大量时间和专业技能来识别目标并构造攻击,而 AI 系统现在可以自主完成这些任务。
Malwarebytes 的 Mark Stockley 描述了规模化的影响:
“如果你可以把目标选择的工作交给一个代理,那么突然之间,你就可以在 …”
本文继续探讨 AI 驱动的自动化如何重塑威胁格局,以及防御者可以采取哪些措施保持领先。