我如何通过自定义“Dehydrator”工具矩阵将 Cursor/Claude 的 token 使用量削减 90% 🛡️
Source: Dev.to
介绍
嗨,AI 原生开发者们!👋
最近我经常遇到 “上下文窗口已满” 的问题,同时 API 费用也在飙升,尤其是在使用 Cursor 和 Claude Code 时。我发现我们喂给 AI 的内容中约有 80% 只是 “token 冗余”——大量的 JSDoc、重复的日志以及实现细节的废话,而这些其实并不需要 LLM 去理解核心逻辑。
TokenCount 概览
我创建了 TokenCount(以及 JustinXai Matrix),这是一套本地优先的工具,旨在在 AI 读取代码之前对代码库进行 脱水。
功能
- CLI (
@xdongzi/ai-context-bundler):在几秒钟内脱水整个仓库。 - VS Code 插件:侧边栏实时 token 扫描器。
- MDC 生成器:从代码片段即时生成结构化的
.cursorrules。
所有组件均在本地运行——无需服务器、无需追踪,只是高效的上下文处理。
结果
在一个体积庞大的 React 组件上运行 TokenCount:
| 之前 | 之后 | 节省 |
|---|---|---|
| 1,248 tokens(充斥着样板代码) | 12 tokens(纯语义骨架) | 降低 92 % 🤯 |
上线信息
- 项目今天在 Product Hunt 上发布。
- 早鸟 Pro Pass 目前 半价。
支持上线(4 小时后上线):
https://www.producthunt.com/products/tokencount-context-bundler
行动号召
我很想了解你们是如何管理上下文膨胀的。你们创下的 token 节省记录是多少?在评论里告诉我吧!