我如何通过自定义“Dehydrator”工具矩阵将 Cursor/Claude 的 token 使用量削减 90% 🛡️

发布: (2026年4月21日 GMT+8 11:08)
2 分钟阅读
原文: Dev.to

Source: Dev.to

介绍

嗨,AI 原生开发者们!👋
最近我经常遇到 “上下文窗口已满” 的问题,同时 API 费用也在飙升,尤其是在使用 Cursor 和 Claude Code 时。我发现我们喂给 AI 的内容中约有 80% 只是 “token 冗余”——大量的 JSDoc、重复的日志以及实现细节的废话,而这些其实并不需要 LLM 去理解核心逻辑。

TokenCount 概览

我创建了 TokenCount(以及 JustinXai Matrix),这是一套本地优先的工具,旨在在 AI 读取代码之前对代码库进行 脱水

功能

  • CLI (@xdongzi/ai-context-bundler):在几秒钟内脱水整个仓库。
  • VS Code 插件:侧边栏实时 token 扫描器。
  • MDC 生成器:从代码片段即时生成结构化的 .cursorrules

所有组件均在本地运行——无需服务器、无需追踪,只是高效的上下文处理。

结果

在一个体积庞大的 React 组件上运行 TokenCount:

之前之后节省
1,248 tokens(充斥着样板代码)12 tokens(纯语义骨架)降低 92 % 🤯

上线信息

  • 项目今天在 Product Hunt 上发布。
  • 早鸟 Pro Pass 目前 半价

支持上线(4 小时后上线):
https://www.producthunt.com/products/tokencount-context-bundler

行动号召

我很想了解你们是如何管理上下文膨胀的。你们创下的 token 节省记录是多少?在评论里告诉我吧!

0 浏览
Back to Blog

相关文章

阅读更多 »