AI 에이전트에게 일을 맡기다 보니 거의 파산할 뻔했다
Source: Dev.to
Introduction
AI 에이전트는 강력하지만, 아주 조용한 방식으로 비용이 많이 들 수 있습니다.
일반 챗봇을 사용할 때는 한 번 메시지를 보내고 한 번 답변을 받습니다—비용이 명확합니다.
AI 코딩 에이전트를 작동시키면 파일을 읽고, 코드를 수정하고, 테스트를 실행하고, 실패하고, 다시 시도하고, 더 많은 컨텍스트를 보내며 모델을 계속 호출할 수 있습니다.
때로는 유용하지만, 때로는 루프에 갇히기도 합니다.
대부분의 LLM 대시보드는 이미 돈이 나간 뒤에만 얼마나 썼는지 알려줍니다. 나는 다음 제공자 호출이 일어나기 전에 위험한 에이전트 실행을 차단할 수 있는 무언가가 필요했습니다.
AgentCostFirewall
나는 AgentCostFirewall이라는 로컬‑우선 OpenAI‑호환 프록시를 만들었습니다. 이 프록시는 당신의 AI 에이전트와 모델 제공자 사이에 위치합니다.

Cursor / Continue / OpenClaw / local agent
↓
AgentCostFirewall
↓
OpenAI‑compatible provider
How it works
아이디어는 간단합니다: API 예산을 소모하기 전에 위험하거나 예산을 초과하는 에이전트 실행을 감지합니다.
Current features
- 사전 호출 예산 검사
- 예산 초과 차단
- 기본 런어웨이 루프 감지
- 정확한 캐시와 절감 지표
- 로컬 대시보드
- 비밀번호 인증
- 스트리밍 패스스루
- 툴‑콜 패스스루
- 키 없이 데모 모드
Repository
GitHub:
Call for feedback
나는 Cursor, Continue.dev, OpenClaw, Codex API‑key mode, Cline, Roo Code, 혹은 커스텀 로컬 에이전트를 사용하는 사람들의 피드백을 찾고 있습니다.
당신은 이런 것을 AI 에이전트 앞에 두겠습니까?