당신의 AI agent가 방금 5가지를 했어요. 증명할 수 있나요?
Source: Dev.to

지난 1년 동안 AI 에이전트를 만들어 왔습니다. 지난달에야 실제 운영 환경에서 이들 중 절반이 정확히 무엇을 하는지 전혀 모른다는 사실을 깨달았습니다.
예를 들어, 지원 에이전트가 올바른 문서를 찾아서 좋은 답변을 제공한다고 생각합니다. 하지만 누군가 “왜 봇이 X라고 말했나요?”라고 물으면— 로그를 뒤져서 유용한 정보를 찾으려 애쓰게 됩니다. 보통은 찾지 못합니다.
EU AI 법안에 대해 읽기 시작할 때까지는 큰 문제가 아니었습니다.
아무도 이야기하지 않는 법
2026년 8월에 EU AI 법이 완전히 시행됩니다. 벌금은 최대 3,500만 유로 또는 전 세계 매출의 7 %에 이를 수 있습니다.
그리고 저를 놀라게 한 점은 AI 에이전트도 적용 대상이라는 것입니다.
법률에는 “에이전트”라는 단어가 전혀 사용되지 않았습니다—이는 현재의 에이전트형 AI 물결이 일어나기 전에 작성되었기 때문입니다. 그러나 법은 “AI 시스템”을 다루고 있으며, 에이전트도 AI 시스템에 해당합니다. The Future Society의 보고서는 이를 확인했습니다: 이 법은 에이전트를 염두에 두고 설계된 것은 아니지만, 에이전트에도 확실히 적용됩니다.
까다로운 점은? 에이전트는 일반 AI보다 준수하기가 더 어렵습니다. 챗봇은 입력을 받고 출력을 하면 끝입니다. 반면 에이전트는 입력을 받고 세 개의 API를 호출하고, 결정을 내리고, 데이터베이스를 업데이트하고, 이메일을 보내며—각 단계마다 설명할 수 있어야 합니다.
실제로 구축해야 할 것
몇 주 동안 실제 요구 사항을 파악하는 데 시간을 보냈습니다. 요약은 다음과 같습니다:
1. 모든 것을 기록하기 (Article 12)
모든 LLM 호출, 모든 도구 사용, 모든 결정—타임스탬프와 함께 기록합니다. 고위험 시스템의 경우 10년간 보관해야 합니다.
import { AgentGov } from "@agentgov/sdk";
import OpenAI from "openai";
const ag = new AgentGov({
apiKey: process.env.AGENTGOV_API_KEY,
projectId: process.env.AGENTGOV_PROJECT_ID,
});
const openai = ag.wrapOpenAI(new OpenAI());
// now every call is traced — inputs, outputs, tokens, cost
OpenAI Agents SDK를 사용한다면, 바로 연결할 수 있는 익스포터가 있습니다:
import { BatchTraceProcessor, setTraceProcessors } from "@openai/agents";
import { AgentGovExporter } from "@agentgov/sdk/openai-agents";
setTraceProcessors([
new BatchTraceProcessor(
new AgentGovExporter({
apiKey: process.env.AGENTGOV_API_KEY!,
projectId: process.env.AGENTGOV_PROJECT_ID!,
})
),
]);
2. 사용자에게 AI임을 알리기 (Article 50)
에이전트가 고객에게 이메일을 보내거나, 사용자와 채팅을 하거나, 콘텐츠를 생성한다면, 사용자는 AI와 상호작용하고 있다는 사실을 알려야 합니다. 명백해 보이지만, 많은 배포에서 이 고지를 누락하고 있습니다.
3. 위험 수준 파악하기 (Annex III)
모든 에이전트가 동일한 컴플라이언스 노력을 필요로 하는 것은 아닙니다. 스팸만 필터링하는 에이전트는 위험도가 낮아 최소한의 요구 사항만 충족하면 됩니다. 구직자를 선별하거나 신용 점수를 매기는 에이전트는 고위험에 해당하며 전체 컴플라이언스 스택을 만족해야 합니다. 사용 사례를 Annex III 카테고리와 매핑해야 합니다.
4. 인간 감독 (Article 14)
고위험 에이전트의 경우, 인간이 에이전트를 중지하고, 그 결정에 개입하며, 에이전트가 무엇을 하고 있는지 이해할 수 있어야 합니다. 이는 자율 에이전트에게는 실제로 어려운 문제이므로, 실제 세계에 영향을 미치는 모든 행동에 대해 승인 게이트를 구축했습니다.
불편한 진실
우리 대부분은 이 모든 것을 고려하지 않고 에이전트를 만들고 있습니다. 저도 그랬죠. 사이드 프로젝트를 배포하고 있다면 아직은 크게 중요하지 않을 수도 있습니다.
하지만 유럽에서 운영되거나 유럽 고객을 보유한 기업을 위해 에이전트를 구축하고 있다면, 마감 기한은 현실입니다. 2026년 8월은 이제 6개월 남았습니다. 기존 시스템에 감사 추적을 뒤늦게 추가하는 것은 처음부터 설계하는 것보다 훨씬 어렵습니다.
제가 이 문제에 착수하게 된 이유는 바로 저 자신이 필요했기 때문입니다. 그 노력은 AgentGov라는 오픈‑소스 프로젝트로 이어졌습니다. 이 프로젝트는 추적 기능과 EU AI 법규 준수 기능(위험 분류, 문서 생성, 사고 추적)을 결합합니다.
이것이 제 첫 번째 오픈‑소스 프로젝트라 진행 과정에서 여러 가지를 배우고 있습니다. 접근 방식, 코드, 혹은 그 외에 대한 피드백이 있다면 진심으로 감사드리겠습니다.
에이전트를 구축하면서 준수 문제를 고민하고 있든(혹은 의도적으로 고민하지 않고 있든) 여러분이 어떻게 접근하고 있는지 듣고 싶습니다.
