프로토콜 전쟁은 요점을 놓치고 있다

발행: (2026년 2월 19일 오전 05:49 GMT+9)
16 분 소요
원문: Dev.to

Source: Dev.to

Originally published on the AICtrlNet blog

요즘 AI 분야에서 흥미로운 일이 일어나고 있습니다. 가장 큰 기업들이 AI 에이전트가 서로, 그리고 우리와 어떻게 대화할지를 정의하려고 경쟁하고 있습니다.

  • Anthropic은 MCP를 가지고 있습니다.
  • Google은 A2A를 가지고 있습니다.
  • OpenAI는 Agents SDK를 가지고 있습니다.

모두가 프로토콜을 만들고 있습니다.

하지만 AI 시스템을 9년 동안—특허받은 시스템도 포함해서—구축해 오면서 나는 이 대화들에서 빠져 있는 것이 무엇인지 계속 눈치채게 됩니다: 인간.

Source:

실제로 무슨 일이 일어나고 있는지 살펴보겠습니다

MCP (Model Context Protocol)

Anthropic이 AI 모델 간 컨텍스트 공유 방식을 표준화하려는 시도.
2024년 11월에 발표된 MCP는 AI 어시스턴트가 데이터 소스와 도구에 연결되는 보편적인 방법을 제공하는 오픈 프로토콜로 설계되었습니다¹.

MCP가 해결하는 문제 – AI 호출을 체인으로 연결하면 컨텍스트가 사라집니다. 두 번째 모델은 첫 번째 모델이 무엇을 생각했는지 알 수 없습니다. MCP는 그 컨텍스트를 구조화된 방식으로 전달하도록 합니다.

MCP가 잘하는 점

  • 모델 간 표준화된 컨텍스트 형식
  • AI 구성 요소 간 깔끔한 핸드오프
  • 다양한 AI 제공업체(Claude에 국한되지 않음)와 호환
  • 누구나 구현할 수 있는 오픈 사양

MCP가 다루지 못하는 점

  • 사람이 개입해야 할 경우는 어떻게 처리하나요?
  • 인간의 컨텍스트는 어떻게 보존되고 전달되나요?
  • AI가 언제 멈추고 도움을 요청해야 하는지 누가 결정하나요?

Google’s A2A

자율 에이전트가 서로 어떻게 소통하고 조정하는지에 초점을 맞춤.
2025년 4월에 발표된 A2A는 HTTP와 JSON‑RPC 같은 기존 표준을 기반으로 에이전트가 서로의 역량을 발견하고, 작업을 협상하며, 복잡한 워크플로를 협업하는 방식을 정의합니다².

A2A가 잘하는 점

  • 벤더 간 다중 에이전트 조정
  • 역량 발견 및 협상
  • 전문 에이전트 간 작업 위임
  • 검증된 웹 표준 위에 구축

A2A가 다루지 못하는 점

  • 동일한 격차: 인간은 어디에 위치하나요?
  • 에이전트 A가 에이전트 B에게 작업을 넘길 때, 인간이 에이전트 B였어야 한다면?
  • 감사가 전혀 의도되지 않은 결정을 어떻게 감사하나요?

OpenAI Agents SDK

멀티‑에이전트 시스템 구축을 위한 프로덕션‑레디 프레임워크.
2025년 3월에 출시된 이 SDK는 실험적 Swarm 프레임워크를 보다 견고한 것으로 대체했습니다³.

잘하는 점

  • 깔끔한 개발자 경험
  • 일반적인 패턴에 대한 좋은 기본값
  • OpenAI 모델과의 긴밀한 통합
  • 프로덕션‑레디 툴링

다루지 못하는 점

  • 벤더 락‑인(OpenAI‑우선)
  • 다시 등장하는 인간 문제

놓친 조각: 인간

모든 주요 프로토콜은 AI‑to‑AI 커뮤니케이션에 초점을 맞춥니다. 이는 타당합니다—기술적으로 어려운 문제이며, 이러한 프로토콜을 구축하는 기업들은 AI 기업이기 때문이죠.

하지만 헬스케어, 금융, 물류 분야에서 AI 시스템을 구축하면서 배운 점은 이렇습니다: 가장 어려운 부분은 AI가 AI와 대화하는 것이 아니라 AI가 인간과 대화하고, 언제 인간에게 전달해야 하는지를 아는 것입니다.

스탠포드 인간‑중심 AI 연구소의 연구는 인간‑AI 협업이 어느 하나만 단독으로 수행할 때보다 더 높은 성과를 낸다는 것을 지속적으로 보여줍니다. 2024년 AI‑지원 의사결정에 관한 연구에 따르면, AI 지원을 받은 인간은 AI 단독보다 23 % 더 나은 결정을 내렸지만—이는 인간과 AI 사이의 핸드오프가 잘 설계된 경우에만 해당되었습니다.⁴

인간 핸드오프가 없는 전형적인 워크플로우

단계에이전트결과
1데이터 에이전트정보를 추출 ✓
2분석 에이전트정보를 처리 ✓
3추천 에이전트옵션을 생성 ✓
4실행 에이전트실행 ✓

3단계가 **“인간이 옵션을 검토한 후 실행”이어야 한다면, 현재 프로토콜은 명확한 답을 제공하지 못합니다. 맞춤형 솔루션을 억지로 끼워넣게 됩니다:

  • 누군가가 놓칠 수 있는 Slack 알림
  • 받은 편지함에 남는 이메일
  • 아무도 확인하지 않는 대시보드

AI의 추천이 의미를 갖게 만든 맥락은 인간이 이를 볼 때 잃어버려 버리는 경우가 많습니다.

2024년 맥킨지의 기업 워크플로우 내 AI 활용 연구에 따르면, **AI 구현 실패의 67 %**가 “부실한 인간‑AI 핸드오프 설계”를 주요 원인으로 꼽았습니다.⁵

불확실성 및 인간 입력의 필요성

AI는 자신이 모르는 것을 모릅니다. AI 에이전트가 불확실할 때는 인간에게 물어야 하지만, 현재 프로토콜은 다음을 표준화하지 못하고 있습니다:

  • 불확실성을 어떻게 표현할지
  • 불확실성이 인간 개입을 촉발해야 하는 시점
  • 인간 핸드오프를 위한 맥락 보존 방법

MIT CSAIL의 연구에 따르면, 대형 언어 모델(LLM)은 틀린 답에 대해 자신감 있게 답변하는 경우가 **31 %**에 달합니다.⁶ 인간에게 전달되는 신뢰도 기반 라우팅이 없으면 이러한 오류가 자동화된 워크플로우 전반에 퍼집니다.

규제 압력

규제는 AI에 발맞춰 빠르게 변화하고 있습니다. GDPR, HIPAA, SOC 2, EU AI Act 등은 모두 일정 수준의 설명 가능성과 감사 추적을 요구합니다.

  • EU AI Act(전면 시행 2025)은 고위험 AI 시스템에 대해 **“의미 있는 인간 감독”**을 명시적으로 요구합니다.⁷
  • 제14조는 인간이 AI 출력물을 이해하고 필요 시 개입할 수 있어야 한다고 규정합니다.

현재 프로토콜은 에이전트 간에 무슨 일이 일어났는지에만 초점을 맞춥니다. 그러나 감사자는 다음과 같은 질문을 합니다:

  1. 누가 이 결정을 내렸는가?
  2. 인간이 관여했는가?
  3. 인간이 개입할 수 있었는가?
  4. 왜 인간이 개입하지 않았는가?

프로토콜이 인간을 일류 시민으로 다루지 않으면 이러한 질문에 답하기 어려워집니다.

Source:

우리가 필요로 하는 것: 인간을 1급 노드로

인간은 “예비 옵션”이나 “에스컬레이션 경로”가 되어서는 안 됩니다. AI 에이전트와 마찬가지로 유효한 노드 유형이어야 합니다.

예시 워크플로우

[AI: Analyze] → [Human: Validate] → [AI: Execute]

프로토콜은 인간에게 라우팅할 때도 AI에게 라우팅할 때와 동일하게 처리해야 합니다:

  • 컨텍스트 유지
  • 명확한 기대치 제시
  • 결과 추적

AI가 인간에게 작업을 넘겨줄 때, 인간은 다음을 이해해야 합니다:

  • AI가 무엇을 하려고 했는지
  • 왜 중단했는지
  • 어떤 옵션들을 고려했는지
  • AI가 어떤 권고를 했는지

인간이 다시 AI에게 작업을 넘겨줄 때, AI는 다음을 이해해야 합니다:

  • 인간이 어떤 결정을 내렸는지
  • 왜 그 결정을 내렸는지
  • 인간이 제공한 추가 컨텍스트

MCP는 AI‑to‑AI 컨텍스트에 대해 뛰어나지만, AI‑to‑humanhuman‑to‑AI 상호작용에도 동일한 엄격함이 필요합니다.

참고 문헌

  1. Anthropic, Model Context Protocol (MCP) – Technical Overview, 2024년 11월.
  2. Google Cloud, Agent‑to‑Agent (A2A) Specification, 2025년 4월.
  3. OpenAI, Agents SDK Documentation, 2025년 3월.
  4. Stanford Human‑Centered AI Institute, Human‑AI Collaboration Study, 2024.
  5. McKinsey & Company, AI in Enterprise Workflows Report, 2024.
  6. MIT CSAIL, Confidence Calibration in Large Language Models, 2024.
  7. European Commission, EU AI Act – Article 14: Human Oversight, 2025.

인간‑대‑AI 및 인간‑대‑인간 상호작용

프로토콜은 신뢰도 기반 라우팅 결정을 지원해야 합니다
이는 단순히 있으면 좋은 것이 아니라, 규제 산업에서는 필수가 되고 있습니다.

감사 가능한 의사결정 포인트

  • 어떤 정보가 사용되었는가
  • 어떤 결정을 내렸는가 (AI 또는 인간에 의해)
  • 그 결정을 내린 이유
  • 그 다음에 무슨 일이 일어났는가

이는 프로토콜에 처음부터 포함되어야 하며, 나중에 덧붙이는 것이 아닙니다.

MCP, A2A, 그리고 기타 프로토콜을 개발하는 기업들은 실제 문제를 해결하고 있습니다. 저는 그들의 작업을 비판하는 것이 아니라, 그 위에 구축하고 있습니다.

시장 격차: 인간 인식 AI 오케스트레이션

다음과 같은 솔루션:

  1. MCP, A2A 및 기타 프로토콜을 지원
  2. 인간을 일등급 워크플로우 참여자로 취급
  3. 인간 경계 너머에서도 컨텍스트를 보존
  4. 고유한 거버넌스 및 감사 기능 제공

AI 오케스트레이션 시장은 2032년까지 428억 달러에 이를 것으로 예상되며, 연평균 성장률은 **23.4 %**입니다. 대부분은 기업용 사례에 쓰일 것이며, 기업은 인간이 루프에 포함되지 않은 AI 워크플로우를 배포할 수 없습니다—컴플라이언스 팀이 허용하지 않기 때문입니다.

저는 9년 동안 인간과 함께 작동하는 AI 시스템을 구축해 왔으며, 현재 그 중 몇몇은 특허를 받았습니다.

공통점: 가장 강력한 AI 시스템은 인간을 대체하지 않고, 우리와 협업합니다.

저는 이제 이 접근 방식을 AI 오케스트레이션에 보다 널리 적용하려고 합니다. 인간 인식 AI 워크플로우에 관심이 있다면 기대해 주세요—곧 더 많은 정보를 공유하겠습니다.

의견 요청

  • 현재 AI 프로토콜에서 가장 큰 격차는 무엇이라고 보십니까?
  • 인간은 여러분의 AI 워크플로우에서 어디에 위치합니까?

여러분의 관점을 듣고 싶습니다.

저자 소개

Srirajasekhar “Bobby” KoritalaBodaty의 설립자

  • 생산 AI 시스템 구축에 거의 10년
  • AI 및 인간‑AI 협업 분야에서 다수의 특허 보유

유용하셨다면 반응을 남기고 follow @bobbykoritala 를 팔로우하여 AICtrlNet 개발 업데이트를 받아보세요.

  • 별표 달기:
  • 📖 더 읽기:
  • 💬 대화 참여: GitHub Discussions
  • 🚀 시도해 보기: pip install aictrlnet

참고 문헌

  1. Anthropic. (2024). Introducing the Model Context Protocol.
  2. Google Cloud. (2025). Agent2Agent: An Open Protocol for AI Agent Interoperability.
  3. OpenAI. (2025). Introducing the Agents SDK.
  4. Stanford HAI. (2024). Human‑AI Collaboration in High‑Stakes Decision Making.
  5. McKinsey & Company. (2024). The State of AI in 2024: Generative AI’s Breakout Year.
  6. MIT CSAIL. (2024). Calibrating Large Language Model Confidence.
  7. European Commission. (2024). The EU Artificial Intelligence Act.
  8. Grand View Research. (2024). AI Orchestration Market Size Report, 2024‑2032.
0 조회
Back to Blog

관련 글

더 보기 »

리처드 파스코에게 바치는 경의

리차드 파스코에게 바치는 헌사 모든 커뮤니티에는 그저 존재만으로도 조용히 더 나아지게 만드는 사람들이 있습니다. DEV에게 리차드 파스코는 그런 사람 중 하나였습니다. 그의…