我如何仍然能够就两个月前做出的决定咨询 AI

发布: (2026年1月5日 GMT+8 22:00)
5 min read
原文: Dev.to

Source: Dev.to

Introduction

在使用 AI 进行真实开发工作几个月后,我注意到一件不寻常的事:我仍然可以向 AI 询问两个月前做出的决定——不是猜测,而是具体的建议。本文解释了这为何可能,以及它与 AI 记忆毫无关系。

The Symptom

如果你在真实项目中使用 AI 已经超过几周,你可能会看到:

  • AI 会忘记早期的决定。
  • 旧的想法会意外地再次出现。
  • 回滚会破坏上下文。
  • 你不再记得为什么要这么做。

这些问题常被归咎于:

  • 上下文窗口限制
  • 缺乏持久记忆
  • 模型局限

但这种诊断是错误的。问题不在记忆,而在上下文。

How I Query the AI

我并不要求 AI 记住过去的对话。我只问一个更简单的东西:

“请查看过去的决策日志并就 XXX 提出建议。”

如果我大致记得决定的时间,我可能会把它作为提示加上;否则我不加。没有严格的提示词,也没有冗长的系统提示来规定行为。AI 可以自由探索、推测并犯错。控制机制是它能够访问的信息结构,而不是提示词。

Decision History as the Single Source of Truth

只有决定会成为历史。我 保存:

  • 会话日志
  • 每日笔记
  • 对话记录
  • 未完成的想法

相反,我只保留一个唯一的真相来源:决策差异(decision diffs)。每条记录包括:

  • 决定了什么
  • 为什么做出决定
  • 有哪些变化
  • 哪些问题仍未解决

如果某件事没有形成决定,它就不会进入历史。探索是被鼓励的,但会存放在别处(实验、探测、部分设计、失败尝试),永远不被视为规范。

AI‑Generated Decision Records

决策历史由 AI 生成,而不是人手写。这是有意为之,因为:

  • 人类倾向于改写历史,抹平不确定性,删除未解决的点。
  • AI 更倾向于捕捉决策发生时的状态,保留不确定性,并明确列出未解问题。

人的角色仅仅是核实事实准确性并纠正错误。我们不对叙述进行润色;这些记录是快照,而不是故事。

Reconstructing Context

当我向 AI 询问两个月前的事情时,双方都不依赖记忆。我们从以下来源重建上下文:

  • 仍然存在的决策历史
  • 随后的代码
  • 已形成的契约

其他一切都已经被过滤掉。

Git as Infrastructure

在这种设置下,Git 的作用不仅是版本化代码。它还版本化:

  • 决策
  • 推理
  • 协作规则

一次回滚不仅是代码的重置;它是一次 上下文重置。AI 只能对 Git 中包含的内容进行推理。Git 之外的东西对 AI 来说根本不存在。

这不是日志技术、提示工程技巧,也不是 AI 记忆特性。这是基础设施。长期的 AI 协作需要基础设施,而这套基础设施就存放在代码仓库里。

Why This Matters

大多数关于 AI 辅助开发的讨论都聚焦在提示、代理、工具和模型上。很少有人谈及长期推理必须具备的前提条件。这个问题只有在真实使用数周或数月后才会显现,这也是我现在写这篇文章的原因。

如果你仍然能够就几个月前的决定向 AI 请教,那是因为你为它提供了值得咨询的过去。

本文是 Context as Infrastructure 系列的一部分——探讨长期 AI 协作依赖结构,而非记忆。

Back to Blog

相关文章

阅读更多 »

RGB LED 支线任务 💡

markdown !Jennifer Davishttps://media2.dev.to/dynamic/image/width=50,height=50,fit=cover,gravity=auto,format=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%...

Mendex:我为何构建

介绍 大家好。今天我想分享一下我是谁、我在构建什么以及为什么。 早期职业生涯与倦怠 我在 17 年前开始我的 developer 生涯……