엔터프라이즈 아이덴티티는 인간을 위해 설계되었습니다 — AI 에이전트를 위한 것이 아닙니다

발행: (2026년 3월 10일 PM 02:00 GMT+9)
17 분 소요

Source: VentureBeat

번역을 진행하려면 번역이 필요한 전체 텍스트를 제공해 주시겠어요? 텍스트를 주시면 요청하신 대로 한국어로 번역해 드리겠습니다.

Presented by 1Password

에이전트형 능력을 기업 환경에 도입하는 것은 정체성 시스템에 새로운 유형의 행위자를 추가함으로써 위협 모델을 근본적으로 재구성하고 있습니다.

문제점: AI 에이전트가 민감한 기업 시스템 내에서 로그인, 데이터 조회, LLM 도구 호출, 워크플로 실행 등 행동을 수행하고 있습니다. 이 과정에서 전통적인 정체성 및 접근 제어 시스템이 설계된 가시성이나 제어가 종종 부족합니다.

AI 도구와 자율 에이전트는 보안 팀이 이를 도구화하거나 관리할 수 있는 속도보다 훨씬 빠르게 기업 전반에 확산되고 있습니다. 동시에 대부분의 정체성 시스템은 여전히 다음을 전제로 합니다:

  • 정적인 사용자
  • 장기 서비스 계정
  • 거친 역할 할당

이러한 시스템은 위임된 인간 권한, 단기 실행 컨텍스트, 혹은 긴밀한 의사결정 루프에서 작동하는 에이전트를 나타내도록 설계되지 않았습니다.

신뢰 계층 재고

그 결과, IT 리더들은 한 걸음 물러서서 신뢰 계층 자체를 재고해야 합니다. 이 변화는 이론적인 것이 아닙니다. NIST의 Zero Trust Architecture (SP 800‑207)는 명시적으로 다음과 같이 말합니다:

“모든 주체—애플리케이션 및 비인간 엔터티 포함—는 인증 및 인가될 때까지 신뢰할 수 없는 것으로 간주됩니다.”

에이전트형 세계에서는 AI 시스템이 상속되거나 공유된 자격 증명을 통해 작동하는 것이 아니라, 자체적인 명시적이고 검증 가능한 정체성을 가져야 함을 의미합니다.

“기업 IAM 아키텍처는 모든 시스템 정체성을 인간으로 가정하도록 구축되어 있습니다. 이는 일관된 행동, 명확한 의도, 그리고 직접적인 인간 책임에 의존해 신뢰를 구현한다는 뜻입니다.”라고 Nancy Wang, 1Password CTO이자 Felicis 벤처 파트너가 말합니다.
“에이전트형 시스템은 이러한 가정을 깨뜨립니다. AI 에이전트는 교육하거나 주기적으로 검토할 수 있는 사용자가 아니라, 복제·포크·수평 확장이 가능하고 여러 시스템에 걸쳐 긴밀한 실행 루프에서 지속적으로 동작할 수 있는 소프트웨어입니다. 에이전트를 인간이나 정적인 서비스 계정처럼 계속 취급한다면, 에이전트가 누구를 위해 행동하는지, 어떤 권한을 가지고 있는지, 그 권한이 얼마나 지속되어야 하는지를 명확히 표현할 수 있는 능력을 잃게 됩니다.”

AI 에이전트가 개발 환경을 보안 위험 구역으로 만드는 방법

현대 개발 환경에서 이러한 정체성 가정이 처음으로 무너지는 곳 중 하나가 바로 최신 개발 환경입니다. 통합 개발 환경(IDE)은 단순한 편집기를 넘어 읽기, 쓰기, 실행, 가져오기 및 시스템 구성까지 수행할 수 있는 오케스트레이터로 진화했습니다. 이 과정의 중심에 AI 에이전트가 배치되면 prompt‑injection transitions 은 단순한 추상적 가능성이 아니라 구체적인 위험이 됩니다.

  • 기존 IDE는 AI 에이전트를 핵심 구성 요소로 설계되지 않았기 때문에, 사후에 AI 기능을 추가하면 전통적인 보안 모델이 고려하지 못한 새로운 유형의 위험이 발생합니다.
  • 예시: 겉보기에는 무해해 보이는 README 파일에 숨겨진 지시문이 포함되어 있어, 표준 분석 과정에서 어시스턴트를 속여 자격 증명을 노출시킬 수 있습니다.
  • 신뢰할 수 없는 출처의 프로젝트 콘텐츠는 프롬프트와 명확히 연관되지 않더라도 에이전트의 행동을 의도치 않게 변경할 수 있습니다.
  • 입력 소스는 이제 의도적으로 실행되는 파일을 넘어 문서, 설정 파일, 파일명, 도구 메타데이터 등 에이전트가 의사결정 과정에서 활용하는 모든 요소로 확대되었습니다.

에이전트가 의도나 책임 없이 행동할 때 신뢰가 무너진다

높은 자율성과 결정론적 특성을 가진 에이전트를 권한이 상승된 상태(읽기, 쓰기, 실행, 시스템 재구성 가능)로 추가하면 위협이 커집니다. 이러한 에이전트는 다음과 같은 특성을 가집니다.

  • 컨텍스트가 없음
  • 인증 요청이 정당한지 판단할 능력이 없음
  • 누가 해당 요청을 위임했는지에 대한 지식이 없음
  • 행동에 대한 내재된 경계가 없음

“에이전트와 함께라면 그들이 정확한 판단을 내릴 수 있다고 가정할 수 없으며, 도덕적 코드도 전혀 없습니다,”라고 Wang은 말합니다. “그들의 모든 행동은 적절히 제한되어야 하고, 민감한 시스템에 대한 접근 및 그 안에서 할 수 있는 일은 더 명확히 정의되어야 합니다. 까다로운 점은 에이전트가 지속적으로 행동을 수행한다는 것이므로, 지속적으로 제한도 가해야 한다는 것입니다.”

전통적인 IAM이 에이전트와 함께 실패하는 이유

전통적인 신원 및 접근 관리(IAM) 시스템은 에이전트형 AI가 위반하는 몇 가지 핵심 가정에 기반합니다:

AssumptionHow Agents Violate It
Static privilege models에이전트는 서로 다른 시점에 서로 다른 권한 수준을 필요로 하는 일련의 작업을 실행합니다. 최소 권한 원칙은 더 이상 “설정하고 잊어버리는” 구성으로 유지될 수 없으며, 자동 만료 및 갱신 메커니즘을 통해 동적으로 범위가 지정되어야 합니다.
Human accountability레거시 시스템은 모든 신원이 책임을 질 수 있는 특정 인물에게 연결된다고 가정합니다. 에이전트는 이 경계를 흐리게 하여 어떤 권한 하에서 작동하는지 명확하지 않게 만듭니다. 에이전트가 복제되거나 수정되거나 원래 목적이 끝난 뒤에도 오래 실행될 경우 위험이 크게 증가합니다.
Behavior‑based detection인간 사용자는 인식 가능한 패턴(예: 업무 시간 동안 로그인)을 따릅니다. 에이전트는 여러 시스템에서 지속적으로 작동하여 정상적인 워크플로우가 의심스러운 것으로 표시되고 전통적인 이상 탐지 도구가 과부하됩니다.
Visibility of identities전통적인 IAM 도구는 정적이고 관리 가능한 신원을 기대합니다. 에이전트는 새로운 신원을 동적으로 생성하거나 기존 서비스 계정을 통해 작동하거나, 자격 증명을 활용해 기존 IAM 솔루션에서 보이지 않게 만들 수 있습니다.

1Password 팀이 준비했습니다.

Source:

에이전트 시스템을 위한 보안 아키텍처 재고

“전체 컨텍스트, 에이전트 뒤에 있는 의도가 핵심이며 기존 IAM 시스템은 이를 관리할 능력이 없습니다,” 라고 Wang이 말합니다. “다양한 시스템이 결합되면서 문제는 단순히 정체성만이 아니라, 누가 행동했는지뿐 아니라 왜, 어떻게 행동했는지를 이해하기 위한 컨텍스트와 가시성이 필요합니다.”

에이전트 AI 보안을 위해서는 기업 보안 아키텍처를 근본부터 재설계해야 함

필요한 주요 전환 사항:

  1. AI 에이전트의 제어 평면으로서의 정체성

    • 정체성은 근본적인 제어 평면으로 다루어야 하며, 단순히 또 다른 보안 구성 요소가 아닙니다.
    • 주요 보안 벤더들은 이미 정체성을 모든 보안 솔루션 및 스택에 통합하고 있습니다.
  2. 에이전트 AI에 대한 컨텍스트‑인식 접근 제어

    • 정책은 훨씬 더 세분화되어 에이전트가 무엇에 접근할 수 있는지어떤 조건 하에서를 정의해야 합니다.
    • 고려 사항:
      • 누가 에이전트를 호출했는가?
      • 어떤 디바이스에서 실행되는가?
      • 시간 제한은 있는가?
      • 각 시스템 내에서 허용되는 구체적인 행동은 무엇인가?
  3. 자율 에이전트를 위한 제로‑지식 자격 증명 처리

    • 자격 증명을 에이전트가 전혀 볼 수 없도록 유지합니다.
    • 에이전트 자동 입력과 같은 기술은 인간용 비밀번호 관리자가 하는 방식과 유사하게, 자격 증명을 평문으로 노출하지 않고 인증 흐름에 주입합니다—단, 소프트웨어 에이전트까지 확장됩니다.
  4. AI 에이전트를 위한 감사 가능성 요구사항

    • 전통적인 감사 로그(API 호출, 인증 이벤트)만으로는 충분하지 않습니다.
    • 필요한 감사 데이터:
      • 에이전트가 누구인지.
      • 어떤 권한 하에 작동하는지.
      • 부여된 권한 범위.
      • 워크플로를 수행하기 위해 취한 전체 행동 체인.
    • 이는 인간 직원에 대한 상세 활동 로그와 유사하지만, 분당 수백 개의 행동을 수행하는 소프트웨어 엔터티에 맞게 확장되어야 합니다.
  5. 인간, 에이전트, 시스템 간 신뢰 경계 강제

    • 특정 인물이 특정 디바이스에서 에이전트를 호출했을 때 에이전트가 수행할 수 있는 작업에 대한 명확하고 강제 가능한 경계를 정의합니다.
    • 의도(사용자가 원하는 것)와 실행(에이전트가 실제로 수행하는 것)를 구분합니다.

에이전시 세계에서 기업 보안의 미래

에이전시 AI가 일상적인 기업 워크플로에 내재됨에 따라 보안 과제는 조직이 에이전트를 도입할 여부가 아니라, 접근을 관리하는 시스템이 그 속도에 맞춰 진화할 수 있는가가 된다.

  • 주변에서 AI를 차단하는 방식은 규모를 확장하기 어렵다.
  • 기존 아이덴티티 모델을 확장하는 것도 통하지 않는다.

필요한 것: 인간, 기계, AI 에이전트를 아우르는 실시간 컨텍스트, 위임, 책임을 고려할 수 있는 아이덴티티 시스템으로의 전환.

“에이전트가 실제 운영에 투입되는 단계는 단순히 더 똑똑한 모델에서 오는 것이 아니다,”라고 Wang은 말한다. “예측 가능한 권한과 강제 가능한 신뢰 경계에서 온다. 기업은 에이전트가 누구를 대신하는지, 어떤 행동을 허용받는지, 그 권한이 언제 만료되는지를 명확히 표현할 수 있는 아이덴티티 시스템이 필요하다. 그렇지 않으면 자율성은 관리되지 않는 위험이 된다. 이를 갖추면 에이전트를 통제 가능하게 만들 수 있다.”


스폰서 기사란 해당 게시물에 비용을 지불했거나 VentureBeat와 비즈니스 관계가 있는 기업이 제작한 콘텐츠이며, 항상 명확히 표시된다. 자세한 내용은 sales@venturebeat.com 으로 문의하시기 바랍니다.

0 조회
Back to Blog

관련 글

더 보기 »