Purview 2026:从“compliance portal”到数据控制平面在 AI 与 agents 时代

发布: (2026年1月6日 GMT+8 21:19)
4 min read
原文: Dev.to

Source: Dev.to

如果你把 Copilot/agents 当作“生产力特性”来看待,2026 年会撞上墙壁:数据
Prompt 是提取渠道,RAG 是“带后果的搜索”,而 agents 成为执行操作的身份。在这种情境下,Microsoft Purview 正在从“可视化”演进为 姿态 + 行动,即一个用于保护和治理数据以及与 AI 交互的控制平面。

最有用的官方跟踪参考是 What’s new in Microsoft Purview(Microsoft Learn),它也指向了已规划功能的路线图。

1) DSPM:从仪表盘到 引导式工作流(以及持续姿态)

Purview 正在将 Data Security Posture Management (DSPM) 统一为“为 AI 保障安全数据”和监控 AI 使用(Copilots、agents 和带 LLM 的应用)的核心点。

重要提示: 文档指出 传统的 DSPM for AI 正在被带有 引导式工作流 的新版本取代,用于主动风险管理和更简化的操作。这表明到 2026 年,姿态将成为一个持续的过程,而不是一次性的审计。

实际可实现的功能

  • 按目标优先级(降低过度共享、弥补保护缺口等)
  • 基于推荐的修复
  • 在不牺牲治理的前提下,实现更 “业务速度” 的运营

2) Agents 成为策略范围:Purview for AI agents

Purview 已经提供了专门用于 管理 AI agents 的安全性和合规性 的指引。
这一范式转变将治理从 用户和文件 扩展到 交互和代理实体

对架构师的影响

  • 策略需要考虑 代理的身份/范围
  • 问责制 需要审计轨迹和关于“代表”执行的操作的证据

3) Prompt 正式进入边界:针对 Copilot 的 DLP(prompt 与 grounding)

2026 年最“落地”的点是 针对 Microsoft 365 Copilot 和 Copilot Chat 的 DLP,可以配置为:

  • 阻止包含 敏感信息类型 的 prompt
  • 当 prompt 违反策略时阻止 Copilot 给出响应
  • 阻止敏感数据被用于内部/外部搜索(包括网络)

此外,还可以 将带有敏感度标签的文件/电子邮件排除在 grounding 之外(此保护已在 GA 中,文档中有说明)。

业务层面的解读

只要拥有 标签分类法完善的 DLP 策略,就能在受控风险下加速 AI 采纳。

4) “Security Copilot Agents” 融入 Purview:减少手动警报排队

Purview 集成了 Security Copilot 的 agents,专注于特定任务,如在 DLP 和 Insider Risk 中对警报进行分拣和优先级排序,并提供分类的可解释性(对运营和审计都有帮助)。

架构师阅读要点

这标志着向 闭环运营(检测、优先级、行动和证据)迈进,而无需按比例增加人手。

架构师进入 2026 “准备好 agents” 的检查清单

  • 先做标签:简洁的分类法,规模化应用
  • Copilot 的 DLP:prompt + grounding(并配有治理良好的例外)
  • DSPM 作为驾驶舱:姿态、推荐和引导式工作流
  • Agents 治理模型:身份、范围、审计、证据
  • 运营:分拣、响应和度量(降低违规停留时间)

感谢阅读!

Back to Blog

相关文章

阅读更多 »

Rapg:基于 TUI 的密钥管理器

我们都有这种经历。你加入一个新项目,首先听到的就是:“在 Slack 的置顶消息里查找 .env 文件”。或者你有多个 .env …

技术是赋能者,而非救世主

为什么思考的清晰度比你使用的工具更重要。Technology 常被视为一种魔法开关——只要打开,它就能让一切改善。新的 software,...

踏入 agentic coding

使用 Copilot Agent 的经验 我主要使用 GitHub Copilot 进行 inline edits 和 PR reviews,让我的大脑完成大部分思考。最近我决定 t...