Monitor Lab “使用生成式 AI 的瞬间,数据成为受控对象”

发布: (2026年2月16日 GMT+8 08:46)
9 分钟阅读

Source: Byline Network

目录

  1. 公共安全范式大转变,N²SF
  2. N²SF,拥抱零信任架构
  3. N²SF 指南主笔者眼中的公共安全课题 – 李哲浩 Enplus Lab CEO 访谈
  4. N²SF 实证案例:SGA Solutions “框架性的咨询阶段是关键”
  5. N²SF 实证案例:Genience “从终端验证开始的 N²SF”
  6. N²SF 实证案例:MonitorLab “使用生成式 AI 的瞬间,数据成为受控对象” (此号)
  7. N²SF 实证案例:Private Technology “需要阶段性转型”
  8. N²SF 实证案例:Enki Whitehat “持续检查才能完善 N²SF”
  9. N²SF 的前进之路:未来任务

去年,国家情报院推进的国家网络安全体系(N²SF)实证中,MonitorLab 参与了‘全政府超大规模人工智能(AI)公共平台’项目,验证了在公共业务中使用生成式 AI 时所需的安全控制。该项目由 Twoi Consulting 主导,MonitorLab 将重点放在从控制设计的角度解决生成式 AI 使用阶段的数据泄露与流入风险。

在与 Byline Network 会面时,MonitorLab 副总裁姜信浩表示:“需求机构最想看到的,是‘在使用 AI 时到底该如何确保安全’的控制问题”。他指出:“此次项目并非仅仅将超大规模 AI 基础设施‘连接’起来的实证,而是需要在 AI 介入的业务流程中识别哪些数据流向何处,并设计·验证用何种策略来阻止或允许这些流动”。他补充说:“由于控制设计和适用范围广泛,MonitorLab 承担了项目工作的大部分”。

生成式 AI 不是模型,而是‘控制层’

姜副总裁解释说:“使用生成式 AI 本身是好的,但关键是要覆盖如何阻止敏感信息泄露,如何检查进入的数据安全性,以确保文件安全往返”。他指出,随着公共机构使用生成式 AI 的增加,被划分为机密(C)·敏感(S)·公开(O)等级的数据可能通过提示词或上传方式泄露到外部,这尤为成问题。“如果在一次提示中突然进行加载(上传),就没有人能阻止。用户便利性越高,‘不经意’产生的泄露路径就越多”。

N²SF 所捕捉的 AI 威胁本质是‘信息流动’

N²SF 指南所提出的生成式 AI 威胁认知也正对应这一点。指南指出,在业务环境中使用生成式 AI 时,S 级业务信息流向更低等级的生成式 AI 服务的情形被视为威胁,并说明为阻止此类情况,需要‘在业务终端和本地设备上阻止上传,并在关联环节进行过滤’的控制。

姜副总裁表示:“认证·等级划分只是必要条件,核心在于其后的阶段”。即使是通过认证的用户,也可以通过一行提示将敏感信息发送到外部,反之,外部传入的结果或附件也可能混入内部业务。生成式 AI 的使用本身即是‘移动’,因此控制设计的核心自然转向数据流动。

按缺陷分析、威胁识别、控制项建议的顺序

MonitorLab 在实证中承担的角色是比‘技术演示’更前置的工作。姜副总裁表示,他们围绕“如何应对使用 AI 时产生的安全缺陷”,进行了安全控制项的空白分析、威胁梳理以及解决方案形式的建议。

这一过程并非‘应用了多少控制’,而是将哪些风险在何处、以何种控制、以何种顺序降低进行文档化,并使其可运营。尤其在生成式 AI 公共平台实证中,这一点尤为重要,因为需要超越仅检查是否包含居民号码等个人信息,而要审视对话的上下文。

姜副总裁还指出,生成式 AI 环节的控制难以仅靠字符串阻断来结束。他解释说:“不像过去的数据泄露防护(DLP)只检查是否包含居民号码,需要一种模型,当问题·答案违背组织指引时发出警报并阻断”。为此,需要实现基于上下文判断的学习模型。他强调:“擅长构建此类学习模型的是 Sands Lab,实证中也需要额外训练,Sands Lab 因此参与其中”。

‘AIONCLOUD’是控制组合…将 ZTNA·CASB·RBI·SWG 融为一体

姜副总裁认为,生成式 AI 的控制不是‘打开或关闭网络’的问题,而是将 AI 使用瞬间打开的 Web·云路径中的数据流动以策略加以管控的问题。他通过将 MonitorLab 的安全服务边缘(SSE)解决方案 AIONCLOUD(아이온클라우드) 与 N²SF 关联进行说明。

AIONCLOUD:

  • 基于 ZTNA(零信任网络访问)对会话级内部资源访问进行控制
  • 通过 CASB(云访问安全代理)对云服务使用进行策略控制
  • 使用 RBI(远程浏览器隔离)阻断基于 Web 的威胁进入
  • 采用 SWG(安全网页网关)阻止有害站点等 Web 流量

这些控制组合构成在生成式 AI 使用过程中的上传·下载·外部联动环节实施‘允许·阻断·过滤’策略的基础。

使用生成式 AI 时的数据流动控制层

MonitorLab 强调的核心不是单一功能,而是 ‘一条流’。生成式 AI 的使用涉及 Web 访问、云使用、文件上传、结果导入等环环相扣的流程,因此控制也必须以组合形式进行设计。

姜副总裁认为,这一问题并非公共部门专属,在远程接入日益增多的民间环境中同样适用。他解释道:“过去必须通过 VPN 进入,但 VPN 的漏洞已广为人知。通过 AIONCLOUD,无论何时何地,都能以同一安全基础设施提供业务服务”。

总之,在超大规模 AI 公共平台实证中确认的核心是 ‘使用生成式 AI 时会产生数据流动路径,必须以策略进行控制’。MonitorLab 的信息“使用生成式 AI 的瞬间,数据即为受控对象”具体展示了 N²SF 并非‘打开网络的政策’,而是‘运营流动的体系’。

作者:바이라인네트워크
god8889@byline.network

0 浏览
Back to Blog

相关文章

阅读更多 »

卷入责任争夺的《Dragon Sword》,最终“全额退款”。

背景:国产新作游戏 Dragon Sword 在发布约一个月后因出版商与开发商的冲突而经历痛苦。开发商 Hound13 声称,出版商 Webzen 未支付尾款且对宣传和营销疏忽,导致初期业绩未达预期。相反,Webzen 则称在双方协商进行期间……

国家网络安全体系(N²SF),要成为真正“可运营的体系”

策划/N²SF 转型⑨ 实证参与企业:“教育·标准·运营·验证必须相互配合”。随着国家情报院正式推行国家网络安全体系 N²SF,公共安全从以“网络分离”为中心的方式,转向以数据等级和风险为依据设计、运营控制的体系,已划定起点。制度引入后方向已明确,但目前…