我构建了一个开源 CLI 来在终端比较 LLM API 成本(npx,Zero Install)
Source: Dev.to
如果你曾经在决定使用哪个模型之前,需要比较 GPT‑4o、Claude Sonnet、Gemini 或其他任何 LLM 的费用,你一定体会过这种痛苦:在浏览器标签间切换、手动计算、还要依赖已经过时的博客文章。
llm-costs 是一个零安装的 CLI,能够立即完成繁重的工作,使用正确的分词器计数 token,并在终端中直接渲染费用对比表。
为什么我构建了 llm-costs
每一个新的 LLM 项目过去都要经历同样的仪式:
- 打开 Anthropic 的定价页面
- 打开 OpenAI 的定价页面
- 打开 Google AI 的定价页面
- 试图在不同的 token 化方式之间进行对比(苹果对橙子)
- 在脑子里或电子表格里做数学运算
- 发现参考的博客文章已经是几个月前的内容
一定有更好的办法。
快速演示
npx llm-costs "Build a REST API in Python" --compare
CLI 使用实际的分词器(OpenAI 模型使用 tiktoken,其他模型使用基于字符的估算)统计你的提示 token,并打印类似下面的表格:
Model Input Cost Output Cost Total
──────────────────────────────────────────────────────
deepseek-chat $0.00003 $0.00008 $0.00011
gemini-flash-2.0 $0.00005 $0.00020 $0.00025
claude-haiku-3-5 $0.00020 $0.00100 $0.00120
gpt-4o-mini $0.00027 $0.00108 $0.00135
claude-sonnet-4-5 $0.00150 $0.00750 $0.00900
gpt-4o $0.00375 $0.01500 $0.01875
功能
零安装
直接使用 npx 运行工具,或通过 npm 全局安装——无需手动设置。
多供应商支持
- 6 家供应商、共 17 种模型:Anthropic、OpenAI、Google、DeepSeek、Mistral、Cohere。
自动更新价格
- 客户端侧: 每次运行时,CLI 会检查
~/.llm-costs/pricing.json。如果文件超过 7 天,则从 GitHub 拉取最新数据(非阻塞,5 秒超时)。 - 服务器侧: GitHub Actions 工作流每周一运行,从 LiteLLM 的聚合 JSON 中获取定价,比较差异,并提交包含变更 markdown 表格的 PR。
批量处理
将提示文件管道输入,即可获得总费用:
llm-costs batch prompts.txt
预算守护
为 CI/CD 流水线设置费用上限:
llm-costs guard --max 0.10
监听模式
在输入提示时实时刷新费用表。
MCP 服务器模式
可与 Claude Desktop 或任何兼容 MCP 的工具集成。
价格变更日志
追踪费用何时变动:
llm-costs changelog --since 30d
预算预测
估算未来支出:
llm-costs budget --requests 10000
安装与使用
一键运行,无需安装
npx llm-costs "your prompt here"
全局安装
npm install -g llm-costs
对所有模型进行对比
npx llm-costs "your prompt" --compare
检查特定模型
npx llm-costs "your prompt" --model claude-sonnet-4-5
贡献
LLM 的定价经常变动,社区可以帮助保持 llm-costs 的最新。欢迎提交 PR 添加新模型、修正价格或支持更多供应商。
链接
- GitHub 仓库: ⭐
- npm 包: