我如何仍然能够就两个月前做出的决定咨询 AI
Source: Dev.to
Introduction
在使用 AI 进行真实开发工作几个月后,我注意到一件不寻常的事:我仍然可以向 AI 询问两个月前做出的决定——不是猜测,而是具体的建议。本文解释了这为何可能,以及它与 AI 记忆毫无关系。
The Symptom
如果你在真实项目中使用 AI 已经超过几周,你可能会看到:
- AI 会忘记早期的决定。
- 旧的想法会意外地再次出现。
- 回滚会破坏上下文。
- 你不再记得为什么要这么做。
这些问题常被归咎于:
- 上下文窗口限制
- 缺乏持久记忆
- 模型局限
但这种诊断是错误的。问题不在记忆,而在上下文。
How I Query the AI
我并不要求 AI 记住过去的对话。我只问一个更简单的东西:
“请查看过去的决策日志并就 XXX 提出建议。”
如果我大致记得决定的时间,我可能会把它作为提示加上;否则我不加。没有严格的提示词,也没有冗长的系统提示来规定行为。AI 可以自由探索、推测并犯错。控制机制是它能够访问的信息结构,而不是提示词。
Decision History as the Single Source of Truth
只有决定会成为历史。我 不 保存:
- 会话日志
- 每日笔记
- 对话记录
- 未完成的想法
相反,我只保留一个唯一的真相来源:决策差异(decision diffs)。每条记录包括:
- 决定了什么
- 为什么做出决定
- 有哪些变化
- 哪些问题仍未解决
如果某件事没有形成决定,它就不会进入历史。探索是被鼓励的,但会存放在别处(实验、探测、部分设计、失败尝试),永远不被视为规范。
AI‑Generated Decision Records
决策历史由 AI 生成,而不是人手写。这是有意为之,因为:
- 人类倾向于改写历史,抹平不确定性,删除未解决的点。
- AI 更倾向于捕捉决策发生时的状态,保留不确定性,并明确列出未解问题。
人的角色仅仅是核实事实准确性并纠正错误。我们不对叙述进行润色;这些记录是快照,而不是故事。
Reconstructing Context
当我向 AI 询问两个月前的事情时,双方都不依赖记忆。我们从以下来源重建上下文:
- 仍然存在的决策历史
- 随后的代码
- 已形成的契约
其他一切都已经被过滤掉。
Git as Infrastructure
在这种设置下,Git 的作用不仅是版本化代码。它还版本化:
- 决策
- 推理
- 协作规则
一次回滚不仅是代码的重置;它是一次 上下文重置。AI 只能对 Git 中包含的内容进行推理。Git 之外的东西对 AI 来说根本不存在。
这不是日志技术、提示工程技巧,也不是 AI 记忆特性。这是基础设施。长期的 AI 协作需要基础设施,而这套基础设施就存放在代码仓库里。
Why This Matters
大多数关于 AI 辅助开发的讨论都聚焦在提示、代理、工具和模型上。很少有人谈及长期推理必须具备的前提条件。这个问题只有在真实使用数周或数月后才会显现,这也是我现在写这篇文章的原因。
如果你仍然能够就几个月前的决定向 AI 请教,那是因为你为它提供了值得咨询的过去。
本文是 Context as Infrastructure 系列的一部分——探讨长期 AI 协作依赖结构,而非记忆。