[Paper] PentestEval:基准测试基于LLM的渗透测试的模块化和阶段级设计

发布: (2025年12月16日 GMT+8 17:37)
7 min read
原文: arXiv

Source: arXiv - 2512.14233v1

概述

本文介绍了 PentestEval,这是首个系统性衡量大型语言模型(LLM)在渗透测试自动化方面表现的基准。通过将测试工作流拆分为六个独立阶段并提供大规模、专家策划的数据集,作者揭示了流行 LLM 在被要求充当安全分析师时的当前优势和显著弱点。

关键贡献

  • 模块化基准设计 – 六个明确定义的渗透测试阶段(信息收集、弱点收集与过滤、攻击决策、漏洞利用生成、漏洞利用修正以及整体成功)实现细粒度性能分析。
  • 大规模、真实的数据集 – 346 个带注释的任务,覆盖 12 个真实世界的易受攻击场景,提供完整的真实利用步骤和结果。
  • 全自动评估流水线 – 脚本可执行 LLM 输出,验证利用成功,并在无需人工干预的情况下计算各阶段指标。
  • 全面的 LLM 对比 – 对九种广泛使用的 LLM(包括 GPT‑4、Claude、LLaMA‑2 等)以及三款现有的 LLM 驱动渗透测试工具(PentestGPT、PentestAgent、VulnBot)进行实证研究。
  • 关于模块化的深刻发现 – 证明模块化、逐阶段的方法相较于单一“黑箱”提示显著提升成功率。

方法论

  1. 任务分解 – 作者将典型的渗透测试工作流映射为六个顺序阶段,每个阶段都有具体的输入/输出约定(例如,“给定目标 IP,列出开放的服务”)。
  2. 场景构建 – 使用常见的 CVE 和错误配置(例如,过时的 Web 服务器、不安全的 Docker 设置)构建了十二个易受攻击的环境。
  3. 真实标注 – 安全专家在每个场景上手动执行每个阶段,生成“黄金标准”输出(服务指纹、CVE 编号、利用脚本等)。
  4. 提示模板 – 为每个阶段创建了一套精心设计的提示(少量示例、系统消息和明确指令)。
  5. LLM 评估 – 使用相同的提示查询了九个 LLM。它们的响应被送入自动化流水线,进行:
    • 解析输出,
    • 在沙箱中执行生成的命令或利用代码,
    • 检查利用是否成功(例如,获得 shell 访问、权限提升)。
  6. 指标 – 阶段级准确率(信息收集的精确率/召回率)、决策正确性、利用生成成功率以及整体端到端成功率。

结果与发现

阶段表现最佳的 LLM(准确率)常见失败模式
信息收集GPT‑4(78%)未发现隐藏服务,输出噪声大
弱点收集与过滤Claude‑2(62%)生成过多 CVE 编号,相关性低
攻击决策LLaMA‑2‑70B(55%)选择不可利用的向量
漏洞利用生成GPT‑4(48%)语法错误,缺少有效载荷
漏洞利用修订Claude‑2(41%)无法适应沙箱反馈
端到端成功31%(整体流水线)

关键要点

  • 即使是最强大的 LLM(GPT‑4),在逐阶段评估时也在超过三分之二的任务中失败。
  • 基于这些模型构建的自主代理(PentestGPT、PentestAgent、VulnBot)几乎在任何阶段都难以成功,证实了仅靠“提示”自动化不足。
  • 将工作流模块化(为每个阶段使用专用提示)将成功率从 <10 %(单体)提升至约 31 % 的整体成功率,但上限仍然偏低。

实际影响

  • 工具开发者 应采用流水线架构:对侦察、漏洞映射和利用构造分别进行独立的 LLM 调用,而不是使用单一的“全能”提示。
  • 安全团队 可以在生产环境中信任 LLM 生成的脚本之前,使用 PentestEval 进行合理性检查;该基准突显了仍需人工审查的环节(例如利用生成)。
  • CI/CD 安全集成 可以嵌入阶段级别的 LLM 检查,以自动标记缺失的补丁或错误配置,但必须保留专家验证的后备方案。
  • LLM 供应商 现在拥有一套具体且可复现的测试套件,用于对未来模型发布进行安全任务基准测试,鼓励在渗透测试数据上进行微调。

限制与未来工作

  • 场景多样性 – 基准覆盖了 12 种设置;虽然多样,但并未涵盖所有网络拓扑、云服务或物联网设备。
  • 提示工程偏差 – 结果取决于手工提示的质量;不同的提示设计可能会改变性能。
  • 沙箱真实度 – 执行在隔离的容器中,可能无法捕捉真实攻击中的时序侧信道或硬件层面的细微差别。
  • 未来方向(作者提出)包括:扩展数据集以覆盖更现代的攻击面(如 Kubernetes、无服务器),加入基于强化学习的代理以迭代细化利用手段,以及探索针对特定阶段安全语料的模型微调。

作者

  • Ruozhao Yang
  • Mingfei Cheng
  • Gelei Deng
  • Tianwei Zhang
  • Junjie Wang
  • Xiaofei Xie

论文信息

  • arXiv ID: 2512.14233v1
  • 分类: cs.SE, cs.AI, cs.CR
  • 发布时间: 2025年12月16日
  • PDF: 下载 PDF
Back to Blog

相关文章

阅读更多 »