당신 회사의 가장 큰 AI 위험은 아무도 승인하지 않은 AI

발행: (2026년 2월 21일 오후 07:20 GMT+9)
9 분 소요
원문: Dev.to

Source: Dev.to

직원 중 65 %가 회사에서 승인하지 않은 AI 도구를 사용하고 있습니다. 임원 및 고위 관리자에서는 그 비율이 93 %에 달합니다. 이들 중 3 / 4은 고객 기록, 소스 코드, 내부 문서, 직원 파일 등 민감한 데이터를 이러한 도구에 입력하고 있다고 인정합니다.

이것이 바로 그림자 AI이며, 이미 일반적인 사고보다 $670,000 더 많은 비용을 기업에 초래하고 있습니다.

숫자는 생각보다 더 나쁩니다

  • IBM의 2025년 침해 보고서에 따르면 13 %의 조직이 AI 모델 또는 애플리케이션과 관련된 침해를 경험했으며, 그 중 97 %가 기본 접근 제어가 부족했습니다.

  • 5개 중 1개는 침해가 섀도우 AI에서 발생했다고 보고했으며 — 이는 직원들이 IT 부서의 관여 없이 스스로 도입한 도구를 의미합니다.

  • 평균 섀도우 AI 침해 비용은 $4.63 million이며, 탐지까지 247 days가 걸립니다.

  • 이는 고객 개인식별정보(PII)를 과도하게 노출시키며(전체 사례의 65 %), 지적 재산권도 40 %에 달합니다.

  • 86 %의 조직이 AI 시스템을 통해 데이터가 흐르는 경로를 파악하지 못하고 있습니다.

  • 평균 기업은 1,200 unauthorized applications를 보유하고 있습니다.

  • 오직 17 %만이 AI 플랫폼에 대한 무단 데이터 업로드를 차단할 수 있는 기술적 제어를 갖추고 있습니다.

이미 발생한 일

  • 2023년 3월: 삼성 반도체 엔지니어 3명이 기밀 소스 코드, 내부 회의 전사본, 시설 측정 데이터베이스를 ChatGPT에 붙여넣었습니다. 삼성은 데이터가 OpenAI 서버에 올라간 뒤 복구할 수 없었고, 이후 사내에서 ChatGPT 사용을 금지했습니다.
  • 2025년: Cisco는 조직의 46 %가 해커가 아니라 직원 프롬프트를 통해 생성 AI로 내부 데이터 유출을 경험했다고 밝혔습니다.
  • Cybernews 설문조사 (미국 근로자 1,000명): 59 %가 고용주가 승인하지 않은 AI 도구를 사용합니다. 이유: 41 %는 더 빠르기 때문, 33 %는 회사가 제공하는 것보다 더 좋기 때문, 승인된 도구가 필요를 완전히 충족한다고 답한 사람은 33 %에 불과합니다.

사람들은 악의적인 것이 아니라 생산성을 높이고 있습니다. IT가 허가한 도구는 느리거나, 능력이 부족하거나, 아직 존재하지 않기 때문에 직원들은 ChatGPT, Claude, Perplexity, Copilot 및 IT가 들어본 적 없는 AI 에이전트 목록으로 눈을 돌립니다.

에이전트가 상황을 악화시킨다

Shadow AI는 챗봇으로 시작되었습니다—직원들이 프롬프트를 입력하고, 텍스트를 붙여넣고, 답변을 받았습니다. 노출은 실제였지만 제한적이었습니다—한 번에 하나의 대화, 한 번에 한 사람씩.

AI 에이전트는 상황을 바꿉니다. 에이전트는 다음을 할 수 있습니다:

  • 이메일 읽기
  • 데이터베이스 조회
  • CRM에 기록
  • 프로젝트 트래커에 티켓 생성

직원이 무단 에이전트를 Slack이나 Google Workspace에 연결하면, 프롬프트를 통해 데이터를 유출하는 것에 그치지 않고 지속적이고 권한이 상승된 접근을 기업 시스템에 부여하게 됩니다.

  • Microsoft (Feb 2026): 현재 Fortune 500 기업의 80 %가 활성 AI 에이전트를 사용하고 있지만, 그 중 14.4 %만이 완전한 보안 승인을 받았습니다.
  • 기업 내 AI 도구의 65 %가 IT 감독 없이 운영되고 있습니다.

이는 “스테로이드에 맞춘 섀도우 IT”와 같습니다. 섀도우 IT는 직원이 SharePoint 대신 Dropbox를 사용하는 것이었지만, 섀도우 AI는 보안 담당자가 알지 못하는 자격 증명을 사용해 고객 데이터베이스에 읽기‑쓰기 권한을 가진 자율 에이전트입니다.

거버넌스 격차

  • 조직의 단 37 %만이 AI를 관리하거나 섀도우 AI를 감지하기 위한 정책을 보유하고 있습니다.
  • 그 중에서도 실제로 승인되지 않은 도구를 감사하는 비율은 겨우 34 %에 불과합니다.
  • 침해된 조직의 63 %는 AI 거버넌스 정책이 없거나 아직 초안 단계에 있습니다.

Gartner는 2030년까지 40 % 이상의 기업이 섀도우 AI와 관련된 보안 또는 규정 준수 사고를 경험할 것으로 예측합니다—현재 추세를 고려하면 보수적인 추정일 수 있습니다.

규제 환경

  • EU AI Act: 고위험 AI 시스템에 대한 인벤토리를 요구합니다.
  • HIPAA & SOX: 섀도우 AI가 일상적으로 위반하는 데이터 처리 요구사항을 부과합니다. 승인되지 않은 AI 도구에 환자 기록을 복사·붙여넣는 단 한 명의 직원만으로도 침해 자체보다 더 큰 비용이 드는 규정 위반을 초래할 수 있습니다.

실제로 효과적인 방법

이를 제대로 실행하고 있는 기업들은 AI를 금지하지 않는다—삼성도 시도했지만 실패했고, 직원들은 단순히 개인 기기를 사용한다.

효과적인 전략:

  1. 승인된 AI 도구를 충분히 우수하게 만들어 직원들이 무단으로 사용하고 싶어하지 않게 한다.
  2. 승인된 도구를 신속하게 배포하고 경량화하여 생산성을 억제하지 않는다.
  3. 모든 키 입력을 감시하지 않으면서 무단 접근을 포착하는 모니터링을 구현한다.
  4. 중앙 집중식 에이전트 레지스트리를 유지한다—조직 내 모든 AI 도구와 에이전트에 대한 단일 진실 소스이다. 네트워크에서 작동하는 모든 에이전트를 명명할 수 없다면 보안 태세가 아니라 희망만 있다.

AI 도입 속도와 거버넌스 속도 사이의 격차가 공격 표면이다. 그 격차가 매달 열려 있을수록 침해 가능성은 복합적으로 증가한다.

귀사의 가장 큰 AI 위험은 정교한 제로데이 익스플로잇이 아니다. 승인된 도구가 너무 느려서 직원이 밤 11시에 고객 목록을 ChatGPT에 붙여넣은 경우다.

Sources: IBM 2025 Data Breach Report, Microsoft Security Blog, Cisco 2025 AI Security Study, Cybernews, Sweep AI at Work Study, Gartner, Samsung incident (Bloomberg/Engadget/Fortune)

0 조회
Back to Blog

관련 글

더 보기 »

서브넷팅 설명

Subnetting이란 무엇인가? 큰 아파트 건물을 여러 층으로 나누는 것과 같다. 각 층 서브넷은 자체 번호가 매겨진 유닛(hosts)을 가지고, 그리고 건물…