Monitor Lab “使用生成式 AI 的瞬间,数据成为受控对象”
Source: Byline Network
目录
- 公共安全范式大转变,N²SF
- N²SF,拥抱零信任架构
- N²SF 指南主笔者眼中的公共安全课题 – 李哲浩 Enplus Lab CEO 访谈
- N²SF 实证案例:SGA Solutions “框架性的咨询阶段是关键”
- N²SF 实证案例:Genience “从终端验证开始的 N²SF”
- N²SF 实证案例:MonitorLab “使用生成式 AI 的瞬间,数据成为受控对象” (此号)
- N²SF 实证案例:Private Technology “需要阶段性转型”
- N²SF 实证案例:Enki Whitehat “持续检查才能完善 N²SF”
- N²SF 的前进之路:未来任务
去年,国家情报院推进的国家网络安全体系(N²SF)实证中,MonitorLab 参与了‘全政府超大规模人工智能(AI)公共平台’项目,验证了在公共业务中使用生成式 AI 时所需的安全控制。该项目由 Twoi Consulting 主导,MonitorLab 将重点放在从控制设计的角度解决生成式 AI 使用阶段的数据泄露与流入风险。
在与 Byline Network 会面时,MonitorLab 副总裁姜信浩表示:“需求机构最想看到的,是‘在使用 AI 时到底该如何确保安全’的控制问题”。他指出:“此次项目并非仅仅将超大规模 AI 基础设施‘连接’起来的实证,而是需要在 AI 介入的业务流程中识别哪些数据流向何处,并设计·验证用何种策略来阻止或允许这些流动”。他补充说:“由于控制设计和适用范围广泛,MonitorLab 承担了项目工作的大部分”。
生成式 AI 不是模型,而是‘控制层’
姜副总裁解释说:“使用生成式 AI 本身是好的,但关键是要覆盖如何阻止敏感信息泄露,如何检查进入的数据安全性,以确保文件安全往返”。他指出,随着公共机构使用生成式 AI 的增加,被划分为机密(C)·敏感(S)·公开(O)等级的数据可能通过提示词或上传方式泄露到外部,这尤为成问题。“如果在一次提示中突然进行加载(上传),就没有人能阻止。用户便利性越高,‘不经意’产生的泄露路径就越多”。
N²SF 所捕捉的 AI 威胁本质是‘信息流动’
N²SF 指南所提出的生成式 AI 威胁认知也正对应这一点。指南指出,在业务环境中使用生成式 AI 时,S 级业务信息流向更低等级的生成式 AI 服务的情形被视为威胁,并说明为阻止此类情况,需要‘在业务终端和本地设备上阻止上传,并在关联环节进行过滤’的控制。
姜副总裁表示:“认证·等级划分只是必要条件,核心在于其后的阶段”。即使是通过认证的用户,也可以通过一行提示将敏感信息发送到外部,反之,外部传入的结果或附件也可能混入内部业务。生成式 AI 的使用本身即是‘移动’,因此控制设计的核心自然转向数据流动。
按缺陷分析、威胁识别、控制项建议的顺序
MonitorLab 在实证中承担的角色是比‘技术演示’更前置的工作。姜副总裁表示,他们围绕“如何应对使用 AI 时产生的安全缺陷”,进行了安全控制项的空白分析、威胁梳理以及解决方案形式的建议。
这一过程并非‘应用了多少控制’,而是将哪些风险在何处、以何种控制、以何种顺序降低进行文档化,并使其可运营。尤其在生成式 AI 公共平台实证中,这一点尤为重要,因为需要超越仅检查是否包含居民号码等个人信息,而要审视对话的上下文。
姜副总裁还指出,生成式 AI 环节的控制难以仅靠字符串阻断来结束。他解释说:“不像过去的数据泄露防护(DLP)只检查是否包含居民号码,需要一种模型,当问题·答案违背组织指引时发出警报并阻断”。为此,需要实现基于上下文判断的学习模型。他强调:“擅长构建此类学习模型的是 Sands Lab,实证中也需要额外训练,Sands Lab 因此参与其中”。
‘AIONCLOUD’是控制组合…将 ZTNA·CASB·RBI·SWG 融为一体
姜副总裁认为,生成式 AI 的控制不是‘打开或关闭网络’的问题,而是将 AI 使用瞬间打开的 Web·云路径中的数据流动以策略加以管控的问题。他通过将 MonitorLab 的安全服务边缘(SSE)解决方案 AIONCLOUD(아이온클라우드) 与 N²SF 关联进行说明。
AIONCLOUD:
- 基于 ZTNA(零信任网络访问)对会话级内部资源访问进行控制
- 通过 CASB(云访问安全代理)对云服务使用进行策略控制
- 使用 RBI(远程浏览器隔离)阻断基于 Web 的威胁进入
- 采用 SWG(安全网页网关)阻止有害站点等 Web 流量
这些控制组合构成在生成式 AI 使用过程中的上传·下载·外部联动环节实施‘允许·阻断·过滤’策略的基础。
使用生成式 AI 时的数据流动控制层
MonitorLab 强调的核心不是单一功能,而是 ‘一条流’。生成式 AI 的使用涉及 Web 访问、云使用、文件上传、结果导入等环环相扣的流程,因此控制也必须以组合形式进行设计。
姜副总裁认为,这一问题并非公共部门专属,在远程接入日益增多的民间环境中同样适用。他解释道:“过去必须通过 VPN 进入,但 VPN 的漏洞已广为人知。通过 AIONCLOUD,无论何时何地,都能以同一安全基础设施提供业务服务”。
总之,在超大规模 AI 公共平台实证中确认的核心是 ‘使用生成式 AI 时会产生数据流动路径,必须以策略进行控制’。MonitorLab 的信息“使用生成式 AI 的瞬间,数据即为受控对象”具体展示了 N²SF 并非‘打开网络的政策’,而是‘运营流动的体系’。
作者:바이라인네트워크
god8889@byline.network