我差点破产,因为让 AI 代理为我工作
发布: (2026年4月28日 GMT+8 17:32)
2 分钟阅读
原文: Dev.to
Source: Dev.to
介绍
AI 代理功能强大,但它们也可能以一种非常隐蔽的方式耗费大量费用。
当我使用普通聊天机器人时,我发送一条消息并得到一个答案——费用很容易理解。
当我让 AI 编码代理工作时,它可能会读取文件、编辑代码、运行测试、失败、重试、发送更多上下文,并一次又一次地调用模型。
有时这很有用,有时它只是卡在循环中。
大多数 LLM 仪表盘只会在钱已经花掉之后告诉你花了多少钱。我想要一种能够在下次调用提供商之前阻止危险代理运行的方案。
AgentCostFirewall
我构建了 AgentCostFirewall,一个本地优先、兼容 OpenAI 的代理,位于你的 AI 代理和模型提供商之间。

Cursor / Continue / OpenClaw / local agent
↓
AgentCostFirewall
↓
OpenAI‑compatible provider
工作原理
思路很简单:在代理运行消耗你的 API 预算之前,检测出风险或超预算的情况。
当前功能
- 调用前预算检查
- 超预算阻断
- 基础的跑圈检测
- 精确缓存与节省指标
- 本地仪表盘
- 密码认证
- 流式透传
- 工具调用透传
- 无密钥演示模式
仓库
GitHub:
征求反馈
我正在寻找使用 Cursor、Continue.dev、OpenClaw、Codex API‑key 模式、Cline、Roo Code 或自定义本地代理的用户的反馈。
你会在你的 AI 代理前面放置类似的东西吗?