`/context` 命令:为你的 Tokens 提供 X-Ray 视野

发布: (2026年1月13日 GMT+8 02:30)
7 min read
原文: Dev.to

请提供您希望翻译的完整文本内容,我才能为您进行简体中文翻译。

介绍

每个 AI 模型都有一个 context window——它一次能够考虑的有限信息量。可以把它想象成工作记忆。对于 Claude 来说,这个窗口相当大,但并非无限。大多数开发者没有意识到,实际的提示词往往只占用了这宝贵空间的一小部分。

在幕后还有:

  • system prompts
  • MCP server configurations
  • memory files
  • accumulated conversation history

这些都会悄悄消耗你的 token 配额。直到现在,这一直是个黑箱:你会在不明原因的情况下触及限制,或注意到响应质量下降,却不知道原因何在。

欢迎来到我们系列的 Day 8。今天我们将通过 /context 命令拉开帷幕——为你提供个人 X‑ray,精准查看 Claude Code 会话内部到底发生了什么。

问题

Token 管理在 AI 工具中令人沮丧,原因有以下几点:

问题为什么有害
不可见性您可以看到自己的提示,但看不到系统提示、注入的工具上下文或累计的历史。这就像在不知道固定支出的情况下做预算。
神秘的限制在对话进行中,响应会被截断,或 Claude “忘记”了之前的上下文。缺乏可见性让您只能猜测。
低效的优化您可能在加载无关文件,使用冗长的 MCP 配置,或让记忆文件膨胀——但您根本不知道。
成本影响更多的 token = 更高的成本。不必要的上下文是您在为其付费的浪费。

上下文窗口可以说是 AI 辅助开发中最重要的资源。盲目操作不是策略,而是赌博。

解决方案

/context 命令让您 完整可见 您的上下文窗口消耗情况。

如何使用

/context

就是这样。Claude Code 将显示当前会话中消耗 token 的所有内容的详细分解。

你将看到

输出提供了一个全面的视图:

📊 Context Window Usage
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

Total Capacity:    200,000 tokens
Currently Used:     47,832 tokens (24%)
Available:         152,168 tokens

━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

BREAKDOWN:

System Prompt           3,247 tokens   (6.8%)
├─ Base instructions      892 tokens
├─ Tool definitions     1,455 tokens
└─ Safety guidelines      900 tokens

MCP Servers             8,921 tokens  (18.6%)
├─ filesystem           2,341 tokens
├─ github                3,892 tokens
└─ database              2,688 tokens

Memory Files            5,443 tokens  (11.4%)
├─ CLAUDE.md            2,156 tokens
└─ project-context.md   3,287 tokens

Conversation History   28,104 tokens  (58.8%)
├─ Turn 1               4,521 tokens
├─ Turn 2               8,932 tokens
├─ Turn 3               6,221 tokens
└─ Turn 4               8,430 tokens

Pending Files           2,117 tokens   (4.4%)
└─ src/utils.ts         2,117 tokens

━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━

阅读输出

部分含义
System PromptClaude 接收的基础指令(相对固定)。
MCP Servers每个已连接的 Model Context Protocol 服务器会为其功能添加上下文。服务器越多,令牌越多。
Memory Files已加载到上下文中的 CLAUDE.md 以及其他文件。大文件可能代价高昂。
Conversation History您发送的每条消息以及 Claude 生成的每个回复都会在此累计。
Pending Files当前已加载用于分析或编辑的文件。

专业技巧

  1. 提前且频繁运行 /context
    在复杂任务开始时检查你的上下文。如果在执行任何操作前你的容量已经达到 60 % ,考虑重新开启会话或压缩你的历史记录。

  2. 审计你的 MCP 服务器
    如果某个服务器消耗了大量令牌但你并未使用其功能,请在当前会话中断开它:

    /mcp disconnect database
  3. 保持记忆文件精简

    # Good: Essential context
    - TypeScript + React project
    - Uses Zustand for state
    - API base: /api/v2/
    
    # Bad: Excessive detail
    - Complete API documentation (500 lines)
    - Full component inventory
    - Historical decisions log
  4. 当历史膨胀时使用 /compact
    如果对话历史是主要的消耗者,/compact 命令可以在保留关键上下文的同时对其进行摘要并减少体积。

  5. 为新任务重新开始
    不要犹豫为不相关的工作开启新会话。携带无关的历史纯属浪费。

实际使用案例

你正深入一次调试会话。Claude 最初的回复很棒,但现在它忽略了你之前提到的明显上下文。

你运行 /context

Total Capacity:    200,000 tokens
Currently Used:    187,432 tokens (94%)
Available:          12,568 tokens

细分显示:

  • Conversation History: 142,000 tokens
  • Pending Files: 28,000 tokens (several large files)

了解了这些信息后,你:

  1. 运行 /compact 对对话历史进行摘要。
  2. 使用 /clear files 关闭不再需要的文件。
  3. 再次运行 /context —— 使用量降至约 45 %。

Claude 的回复立刻改善,因为它现在有足够的空间进行思考。

结论

/context 命令将令牌管理从猜测转变为科学。它的作用相当于在有油表的情况下开车,而不是盲目驾驶、希望不会耗尽燃料。

了解你的上下文消耗不仅仅是为了避免达到上限——更是为了优化。每一个不必要的令牌都是:

  • 延迟,你本可以避免的,
  • 成本,你本可以省下的,
  • 容量,本可以用于实际工作的。

/context 作为 Claude Code 工作流的常规步骤。你的会话将更高效,回复将更准确,你也终于能真正了解 AI 对话的真实结构。

明日预告: 如果可以在桌面上开始任务,在笔记本上完成,或者启动一个长时间运行的作业后稍后继续,该多好?第 9 天将推出 Claude Code Remote——跨设备的无缝会话移动。你的工作,随时随地。

这是 “Claude Code 功能 31 天” 系列的第 8 天。请持续关注,每天发现一个强大的新功能。

Back to Blog

相关文章

阅读更多 »

MCP Token Limits:工具过载的隐藏成本

增加更多 MCP 服务器的隐藏成本 你添加了几个 MCP 服务器——GitHub 用于代码,Notion 用于文档,或许还有 Slack 用于通知。 突然,Claude 感觉变慢了……