记忆是 AI 中缺失的层
发布: (2026年3月2日 GMT+8 15:18)
3 分钟阅读
原文: Dev.to
Source: Dev.to
问题:健忘的交互
想象一下去看一位失忆的顶级医生。每次就诊都必须从头解释所有信息——你的病史、症状、过敏史以及既往治疗。
这正是今天使用 ChatGPT 的感受。模型非常聪明,但它没有关于你是谁的记忆。每次对话都从零开始,失去上下文、目标、模式和偏好。
解决方案:添加记忆
我们将其确定为首要解决的问题——不是让模型更聪明,而是赋予它记忆的能力。
ALLMA 使用 Supabase 与 pgvector 实现语义记忆。每段对话都会被嵌入并存储。当你以后与 ALLMA 对话时,它会在记忆中搜索过去交互的相关上下文。
工作原理
- 嵌入(Embeddings) – 将每一次对话转化为向量表示。
- 向量搜索(Vector Search) – 使用
pgvector找到最相关的历史嵌入。 - 智能上下文注入(Smart Context Injection) – 将检索到的上下文插入提示中,使模型能够回忆起先前的细节。
难点不在技术本身,而在于决定 记住什么 以及 何时呈现。
好处
- 模式识别 – “你这周已经三次提到对这个项目感到压力——想聊聊真正的原因吗?”
- 目标跟踪 – 记住你的目标并检查进展。
- 个性化导师 – 构建一个关于你的心智模型,随着时间不断丰富,类似于能够连点成线、看到全局的好导师。
行动号召
免费试用: alma.pro