모니터랩 “생성형 AI 쓰는 순간, 데이터는 통제 대상”
Source: Byline Network
목차
- 공공 보안 패러다임 대전환, N²SF
- N²SF, 제로트러스트 아키텍처 품었다
- N²SF 가이드라인 주 집필인이 본 공공 보안의 숙제 – 이철호 엔플러스랩 대표 인터뷰
- N²SF 실증사례 : SGA솔루션즈 “뼈대인 컨설팅 단계가 핵심”
- N²SF 실증사례 : 지니언스 “단말 검증에서 시작되는 N²SF”
- N²SF 실증사례 : 모니터랩 “생성형 AI 쓰는 순간, 데이터는 통제 대상” (이번호)
- N²SF 실증사례 : 프라이빗테크놀로지 “단계적 전환이 필요하다”
- N²SF 실증사례 : 엔키화이트햇 “계속 점검해야 완성되는 N²SF”
- N²SF가 나아갈 길 : 향후 과제
지난해 국정원이 추진한 국가망보안체계(N²SF) 실증에서 모니터랩은 ‘범정부 초거대 인공지능(AI) 공통기반’ 과제에 참여해, 공공 업무에서 생성형 AI를 사용할 때 필요한 보안 통제를 검증했다. 이 과제는 투이컨설팅이 주관했고, 모니터랩은 생성형 AI 활용 구간에서의 데이터 유출·유입 위험을 통제 설계 관점으로 풀어내는 데 초점을 맞췄다.
바이라인네트워크와 만난 강신호 모니터랩 부사장은 “수요기관이 가장 보고 싶었던 건 ‘AI를 사용하는데 보안을 도대체 어떻게 해야 하느냐’는 통제의 문제였다”고 말했다. 그는 “이번 과제는 단순히 초거대 AI 기반을 ‘연결’하는 실증이 아니라, AI가 개입하는 업무 흐름에서 어떤 데이터가 어디로 이동하는지 식별하고 그 이동을 어떤 정책으로 막거나 허용할지까지 설계·검증해야 했다”며 “그 통제 설계와 적용 범위가 넓다 보니 프로젝트 업무의 큰 비중을 모니터랩이 담당했다”고 설명했다.
생성형 AI는 모델이 아니라 ‘통제 레이어’
강 부사장은 “생성형 AI를 쓰는 것까지는 좋은데, 민감 정보를 어떻게 막을지, 들어오는 데이터 보안성을 어떻게 점검해 안전하게 파일이 오가게 할지를 커버하는 것”이라고 설명했다. 그는 공공기관에서 생성형 AI 사용이 늘수록, 기밀(C)·민감(S)·공개(O) 등급으로 분류된 데이터가 프롬프트나 업로드를 통해 외부로 빠져나갈 수 있다는 점을 특히 문제로 봤다. “한 프롬프트에서 갑자기 로딩(업로드)해버리면 누가 막아줄 수 없다. 사용자 편의가 커질수록 ‘무심코’ 생기는 유출 경로가 늘어난다”고 강조했다.
N²SF가 찍은 AI 위협의 본질은 ‘정보 이동’
N²SF 가이드라인이 제시하는 생성형 AI 위협 인식도 이 지점과 맞닿아 있다. 가이드라인은 업무 환경에서 생성형 AI를 활용할 때 S등급 업무정보가 더 낮은 등급의 생성형 AI 서비스로 이동하는 상황을 위협으로 식별하고, 이를 막기 위해 ‘업무 단말과 온북에서 업로드를 차단하고 연계 구간에서 필터링하는’ 통제가 필요하다고 설명한다.
강 부사장은 “인증·등급 분류는 필요 요건에 가깝고, 본질은 그 다음 단계”라고 말한다. 인증을 통과한 사용자라도 프롬프트 한 줄로 민감 정보를 외부로 보낼 수 있고, 반대로 외부에서 들어오는 결과물·첨부파일이 내부 업무에 섞일 수도 있다. 생성형 AI는 사용 자체가 곧 ‘이동’이기 때문에, 통제 설계의 중심축이 자연스럽게 데이터 흐름으로 옮겨간다.
결함 분석, 위협을 식별, 통제 항목 제안 순으로
모니터랩이 실증에서 맡은 역할은 ‘기술 시연’보다 앞선 작업이다. 강 부사장은 “AI를 쓰면서 생기는 보안 결함을 어떻게 대응할지”를 놓고 보안 통제 항목의 공백 분석, 위협 정리, 솔루션 형태 제안을 진행했다고 말했다.
이 과정은 “통제를 얼마나 많이 적용했느냐”가 아니라, 어떤 위험을 어떤 통제로, 어떤 지점에서, 어떤 순서로 줄일지를 문서화하고 운영 가능하게 만드는 작업이다. 특히 생성형 AI 공통기반 실증에서는 이 부분이 아주 중요한데, 단순히 주민번호 같은 개인정보 포함 여부를 넘어 대화의 맥락을 살펴야 하기 때문이다.
강 부사장은 생성형 AI 구간 통제가 단순 문자열 차단으로 끝나기 어렵다고도 말했다. “옛날 데이터 유출 방지(DLP)처럼 주민번호 여부만 체크하는 것이 아니라, 질문·답변이 조직 지침에 어긋나면 알람을 내고 차단하는 모델이 필요하다”고 설명했다. 이를 위해서는 맥락 기반 판단을 구현하는 학습 모델이 필요하다고 강조했다. “이런 학습 모델을 잘 만드는 곳이 샌즈랩이고, 실증에서도 추가 학습이 필요해 샌즈랩이 함께 참여했다”고 덧붙였다.
‘아이온클라우드’는 통제 묶음…ZTNA·CASB·RBI·SWG를 한 흐름으로
강 부사장은 생성형 AI 통제가 “망을 열느냐 닫느냐”의 문제가 아니라, AI를 쓰는 순간 열리는 웹·클라우드 경로에서 데이터 이동을 정책으로 잡는 문제라고 본다. 모니터랩의 보안 서비스 엣지(SSE) 솔루션인 아이온클라우드(AIONCLOUD) 를 N²SF와 연결해 설명했다.
아이온클라우드는:
- ZTNA(제로트러스트 네트워크 접근) 기반으로 세션 단위 내부 자원 접속을 제어
- CASB(클라우드 접근 보안 중개)로 클라우드 서비스 사용을 정책으로 통제
- RBI(원격 브라우저 격리)로 웹 기반 위협 유입을 차단
- SWG(보안 웹 게이트웨이)로 유해 사이트 차단 등 웹 트래픽을 제어
이러한 통제 묶음이 생성형 AI 사용 과정의 업로드·다운로드·외부 연동 구간에서 ‘허용·차단·필터링’ 정책을 적용하는 기반이 된다.
생성형 AI 사용 시 데이터 이동 통제 레이어
모니터랩이 강조하는 핵심은 하나의 기능이 아니라 **‘한 흐름’**이라는 점이다. 생성형 AI 사용은 웹 접속, 클라우드 이용, 파일 업로드, 결과물 반입이 엮인 흐름이므로, 통제도 묶음 형태로 설계돼야 한다.
강 부사장은 이 문제가 공공만의 이슈가 아니라, 원격 접속이 늘어난 민간 환경에서도 동일하게 적용된다고 본다. “기존에는 VPN을 타고 들어가야 했지만, VPN 취약점은 이미 많이 알려져 있다. 아이온클라우드를 통해 언제 어디에 있든 동일한 보안 인프라로 업무 서비스를 제공한다”고 설명했다.
결론적으로, 초거대 AI 공통기반 실증에서 확인된 핵심은 **‘생성형 AI를 사용할 때 데이터 이동 경로가 생기며, 이를 정책으로 통제해야 한다’**는 점이다. “생성형 AI를 쓰는 순간 데이터는 통제 대상”이라는 모니터랩의 메시지는 N²SF가 ‘망을 여는 정책’이 아니라 ‘흐름을 운영하는 체계’임을 구체적으로 보여준다.
글. 바이라인네트워크
god8889@byline.network