停止浪费上下文

发布: (2026年2月25日 GMT+8 20:16)
3 分钟阅读
原文: Dev.to

Source: Dev.to

Introduction

OpenAI 说“上下文是一种稀缺资源”。
把它当作稀缺资源来对待。

一个庞大的指令文件看起来安全且完整,但它会挤占实际任务、代码和相关约束的空间。模型并不会因为更多文字而变得更聪明;相反,它会:

  • 错过埋在噪声中的真实约束
  • 开始为错误的目标进行优化
  • 对当前不重要的指令产生过拟合

The Right Mental Model

把上下文想象成运行系统中的 RAM:

  • 有限
  • 昂贵
  • 用于正在处理的内容

LLM 的上下文同样适用。

Optimizing “RAM”

Remove

  • 已不再适用的旧决策
  • 重复的指令
  • 过时的约束
  • “顺便了解”类的解释

如果对当前任务没有必要,就不应占用内存。

Don’t Preload

  • 所有编码规范
  • 所有架构文档
  • 所有小组规则

Instead

  • 只注入与当前步骤相关的内容
  • 使用作用域更小的代理
  • 需要时再拉取特定文档

上下文应当是 动态的,而非单块的。

Structuring Instructions

替换:

  • 冗长的段落
  • 重复的政策文本
  • 冗余的解释

为:

  • 项目符号式摘要
  • 结构化规则
  • 标准引用

你不会在 RAM 中复制库——你会引用它们。

Example File Layout

不要把所有指令放在一个巨大的文件里,而是保持独立、聚焦的文档:

  • core-standards.md
  • frontend-guidelines.md
  • backend-guidelines.md
  • architecture‑principles.md

仅加载当前任务涉及的部分。

Stable vs. Temporary Constraints

  • 稳定的原则(编码哲学、架构价值观)应当 简洁且抽象
  • 临时任务约束(修复此 bug、实现此接口)应当 精准且有范围

不要把两者混在一起。

Best Practices

  • 将稳定原则保持简洁。
  • 将任务上下文保持精准且有范围。
  • 约束越多,模型越倾向于优化指令遵从——给模型所有信息并不会让你赢

Conclusion

大上下文 ≠ 更好输出。

把上下文当作 RAM 来对待:

  • 保持精简
  • 保持最新
  • 有意加载
  • 积极驱逐

内存管理得当的系统表现更佳,代理也不例外。

0 浏览
Back to Blog

相关文章

阅读更多 »