逃离笨区,第一部分:为什么你的 AI 越和它说话越蠢
Source: Dev.to
第 1 部分,共 4 部分,属于“Escaping the Dumbzone”系列
问题
看,我们都有过这种经历。你和 Claude 编码已经一个小时了,突然它开始表现怪异——忘记了你五分钟前告诉它的内容,忽视你的指令,给出让人感觉……不对劲的建议。
你并没有做错什么。你的 AI 只是走进了 the Dumbzone。
什么是 Dumbzone?
这里有件事没人会告诉你:给你的 AI 更多上下文往往会让它变得更笨。
不是稍微笨一点。研究表明,仅仅因为上下文过载,准确率就会从 87 % 降到 54 %。这不是打字错误——更多信息真的让模型表现更差。

已经弄清楚这一点的团队遵循一个简单规则:一旦上下文使用率达到 40 %,就会出现奇怪的行为。HumanLayer 更进一步——他们建议在 Claude 仍然保持在“智能区”时,保持 ≈ 75 k 令牌 以下。
超过这个范围?你就进入了 Dumbzone,再聪明的提示也救不了你。
为什么会出现这种情况?
两个主要原因,均有研究支持。
1. 中间丢失
斯坦福研究人员发现了一件有趣的事:大型语言模型(LLM)呈现 U 形注意力曲线。它们会关注上下文的开头,也会关注结尾,但对中间的内容?那是“我其实没在听”的区域。
当关键信息位于中间而不是开头或结尾时,性能会下降 超过 30 %。仅仅因为位置的不同,就会导致三成的差距。

这对编码有什么影响: 每个你阅读的文件、每个工具的输出、每一次对话的轮次——所有信息都会堆积在中间。你的实际指令会被推入最容易被忽视的区域。并不是 Claude “忘记”了你说的话,而是它真的已经看不清这些信息了。
2. MCP 工具税
这点更隐蔽。只要连接五个 MCP 服务器,你就已经在 ≈ 50 k 令牌 之前消耗掉了大量上下文。
每个 MCP 连接都会加载数十个工具定义。五个服务器 × 数十个工具 = 大量上下文窗口被这些可能在本次会话中根本用不到的内容占用。
这相当于 ≈ 40 % 的典型上下文窗口被 工具定义 吃掉——在你真正开始工作之前。你已经逼近了“笨区”(Dumbzone)。

智能区
HumanLayer 创造了这个术语,而且很有用:在 ≈ 75 k token “smart zone” 的范围内,Claude 表现良好。超出此范围,情况就会变得奇怪。
但这不仅仅关乎总 token 数量;更在于 这些 token 的内容。
- 每一行类似
PASS src/utils/helper.test.ts的测试输出都是浪费。它消耗了本可以用单个字符表达的信息:✓ - 每个你“以防万一”打开的文件都是可能不需要的上下文。
- 每条冗长的错误信息都会把你的实际指令推向被遗忘的中间部分。
“确定性优于非确定性。如果你已经知道什么是重要的,就不要让模型在成千上万的垃圾 token 中筛选来决定。”
— HumanLayer
症状
如何判断自己已经进入 Dumbzone?请留意:
- 指令失忆 – Claude 忽视了几分钟前仍能完美遵守的规则。
- 上下文泄漏 – 它会把早前对话中不相关的细节拉进来。
- 奇怪的输出 – 回复显得不对劲、缺乏焦点,或异常通用。
- 重复 – 提出你已经尝试或讨论过的内容。
- 自信却不称职 – 听起来很肯定,却是错误的。
如果你看到这些,检查你的 上下文计量器。你可能比想象的更深入。
接下来
傻区是真实存在的,但它并非不可避免。
在接下来的三部分中,我们将讨论:
- 第 2 部分:子代理 – 避免进入傻区的最强技术。将你的探索隔离开来,获取洞察而不是调查日志。
- 第 3 部分:知识与配置 – 结晶化学习成果,编写有效的
CLAUDE.md文件,以及真正有效的会话卫生。 - 第 4 部分:高级模式 – 反压控制、用于长时间任务的 Ralph 循环,以及 12‑Factor 代理框架。
目标并不是避免使用上下文,而是要 有意地 使用它。
关键要点
- 更多上下文 ≠ 更好结果 – 当使用率超过约 40 % 时,性能会急剧下降。
- 中间部分被忽略 – 大语言模型的注意力曲线呈 U 形;开头和结尾最重要。
- 工具定义成本高 – MCP 服务器在你真正开始之前就可能消耗 40 % 以上的窗口。
- 保持在智能区间 – 将总 token(尤其是“有用” token)保持在约 75 k 以下。
- 有目的地使用 – 削减浪费,将关键信息放在开头或结尾,并监控你的上下文预算。
进一步阅读
- Lost in the Middle: How Language Models Use Long Contexts — 斯坦福研究论文
- Writing a good CLAUDE.md — HumanLayer 指南
- Context Window Management Strategies — Maxim AI
