我差点破产,因为让 AI 代理为我工作

发布: (2026年4月28日 GMT+8 17:32)
2 分钟阅读
原文: Dev.to

Source: Dev.to

介绍

AI 代理功能强大,但它们也可能以一种非常隐蔽的方式耗费大量费用。

当我使用普通聊天机器人时,我发送一条消息并得到一个答案——费用很容易理解。
当我让 AI 编码代理工作时,它可能会读取文件、编辑代码、运行测试、失败、重试、发送更多上下文,并一次又一次地调用模型。

有时这很有用,有时它只是卡在循环中。

大多数 LLM 仪表盘只会在钱已经花掉之后告诉你花了多少钱。我想要一种能够在下次调用提供商之前阻止危险代理运行的方案。

AgentCostFirewall

我构建了 AgentCostFirewall,一个本地优先、兼容 OpenAI 的代理,位于你的 AI 代理和模型提供商之间。

AgentCostFirewall screenshot

Cursor / Continue / OpenClaw / local agent

AgentCostFirewall

OpenAI‑compatible provider

工作原理

思路很简单:在代理运行消耗你的 API 预算之前,检测出风险或超预算的情况。

当前功能

  • 调用前预算检查
  • 超预算阻断
  • 基础的跑圈检测
  • 精确缓存与节省指标
  • 本地仪表盘
  • 密码认证
  • 流式透传
  • 工具调用透传
  • 无密钥演示模式

仓库

GitHub:

征求反馈

我正在寻找使用 CursorContinue.devOpenClawCodex API‑key 模式ClineRoo Code 或自定义本地代理的用户的反馈。

你会在你的 AI 代理前面放置类似的东西吗?

0 浏览
Back to Blog

相关文章

阅读更多 »