오픈소스 CLI를 만들어 터미널에서 LLM API 비용을 비교했습니다 (npx, Zero Install)
Source: Dev.to
한 번이라도 GPT‑4o, Claude Sonnet, Gemini 혹은 다른 LLM의 비용을 모델을 선택하기 전에 비교해본 적이 있다면, 그 고통을 잘 알 것입니다: 브라우저 탭을 뒤적이고, 수작업으로 계산하고, 오래된 블로그 글에 의존해야 하죠.
llm-costs는 제로‑인스톨 CLI로, 올바른 토크나이저로 토큰을 계산하고 비용 비교 표를 터미널에 바로 렌더링해줍니다.
Why I built llm-costs
새로운 LLM‑기반 프로젝트는 언제나 같은 절차로 시작했습니다:
- Anthropic 가격 페이지 열기
- OpenAI 가격 페이지 열기
- Google AI 가격 페이지 열기
- 사과와 오렌지를 비교하려고 시도하기(다른 토크나이저)
- 머리 속이나 스프레드시트로 계산하기
- 참고 블로그 글이 몇 달째 오래됐다는 걸 깨닫기
더 나은 방법이 필요했습니다.
Quick demo
npx llm-costs "Build a REST API in Python" --compare
CLI는 실제 토크나이저(OpenAI 모델은 tiktoken, 다른 모델은 문자 기반 추정)를 사용해 프롬프트 토큰을 계산하고 다음과 같은 표를 출력합니다:
Model Input Cost Output Cost Total
──────────────────────────────────────────────────────
deepseek-chat $0.00003 $0.00008 $0.00011
gemini-flash-2.0 $0.00005 $0.00020 $0.00025
claude-haiku-3-5 $0.00020 $0.00100 $0.00120
gpt-4o-mini $0.00027 $0.00108 $0.00135
claude-sonnet-4-5 $0.00150 $0.00750 $0.00900
gpt-4o $0.00375 $0.01500 $0.01875
Features
Zero install
npx로 바로 실행하거나 npm으로 전역 설치—수동 설정이 필요 없습니다.
Multi‑provider support
- 6개 제공업체(Anthropic, OpenAI, Google, DeepSeek, Mistral, Cohere)에서 17개 모델 지원.
Auto‑updating prices
- Client‑side: 실행할 때마다 CLI가
~/.llm-costs/pricing.json을 확인합니다. 파일이 7일보다 오래됐으면 GitHub에서 최신 데이터를 가져옵니다(비동기, 5 초 타임아웃). - Server‑side: GitHub Actions 워크플로가 매주 월요일 실행되어 LiteLLM의 집계 JSON에서 가격을 가져오고, 차이를 확인한 뒤 마크다운 표 형태의 변경 사항을 포함한 PR을 엽니다.
Batch processing
프롬프트 파일을 파이프하여 전체 비용을 얻을 수 있습니다:
llm-costs batch prompts.txt
Budget guard
CI/CD 파이프라인에 비용 상한을 설정합니다:
llm-costs guard --max 0.10
Watch mode
프롬프트를 입력하는 동안 비용 표가 실시간으로 새로 고쳐집니다.
MCP server mode
Claude Desktop이나 MCP‑호환 도구와 통합합니다.
Price changelog
비용이 언제 변했는지 추적합니다:
llm-costs changelog --since 30d
Budget projections
향후 지출을 추정합니다:
llm-costs budget --requests 10000
Installation & Usage
One‑shot, no install
npx llm-costs "your prompt here"
Global install
npm install -g llm-costs
Compare across all models
npx llm-costs "your prompt" --compare
Check a specific model
npx llm-costs "your prompt" --model claude-sonnet-4-5
Contributing
LLM 가격은 자주 변동하므로 커뮤니티가 llm-costs를 최신 상태로 유지하는 데 도움을 줄 수 있습니다. 새로운 모델 추가, 가격 수정, 추가 제공업체 지원 등에 대한 PR을 환영합니다.
Links
- GitHub repository: ⭐
- npm package: