停止浪费上下文
发布: (2026年2月25日 GMT+8 20:16)
3 分钟阅读
原文: Dev.to
Source: Dev.to
Introduction
OpenAI 说“上下文是一种稀缺资源”。
把它当作稀缺资源来对待。
一个庞大的指令文件看起来安全且完整,但它会挤占实际任务、代码和相关约束的空间。模型并不会因为更多文字而变得更聪明;相反,它会:
- 错过埋在噪声中的真实约束
- 开始为错误的目标进行优化
- 对当前不重要的指令产生过拟合
The Right Mental Model
把上下文想象成运行系统中的 RAM:
- 有限
- 昂贵
- 用于正在处理的内容
LLM 的上下文同样适用。
Optimizing “RAM”
Remove
- 已不再适用的旧决策
- 重复的指令
- 过时的约束
- “顺便了解”类的解释
如果对当前任务没有必要,就不应占用内存。
Don’t Preload
- 所有编码规范
- 所有架构文档
- 所有小组规则
Instead
- 只注入与当前步骤相关的内容
- 使用作用域更小的代理
- 需要时再拉取特定文档
上下文应当是 动态的,而非单块的。
Structuring Instructions
替换:
- 冗长的段落
- 重复的政策文本
- 冗余的解释
为:
- 项目符号式摘要
- 结构化规则
- 标准引用
你不会在 RAM 中复制库——你会引用它们。
Example File Layout
不要把所有指令放在一个巨大的文件里,而是保持独立、聚焦的文档:
core-standards.mdfrontend-guidelines.mdbackend-guidelines.mdarchitecture‑principles.md
仅加载当前任务涉及的部分。
Stable vs. Temporary Constraints
- 稳定的原则(编码哲学、架构价值观)应当 简洁且抽象。
- 临时任务约束(修复此 bug、实现此接口)应当 精准且有范围。
不要把两者混在一起。
Best Practices
- 将稳定原则保持简洁。
- 将任务上下文保持精准且有范围。
- 约束越多,模型越倾向于优化指令遵从——给模型所有信息并不会让你赢。
Conclusion
大上下文 ≠ 更好输出。
把上下文当作 RAM 来对待:
- 保持精简
- 保持最新
- 有意加载
- 积极驱逐
内存管理得当的系统表现更佳,代理也不例外。