别再向 AI 反复解释你的代码:我如何构建本地优先的“Long-Term Memory”引擎
发布: (2026年4月28日 GMT+8 23:19)
3 分钟阅读
原文: Dev.to
Source: Dev.to
问题:AI 失忆症
我们都有过这种经历:在一个复杂项目里已经聊了 12 次了。你已经解释了你的架构、数据库模式,以及凌晨 2 点才最终修复的那个晦涩的 bug。然后你打开一个新聊天,AI 从零开始。于是你又花了 20 分钟重新解释一遍所有内容。
我厌倦了这种“上下文破产”,于是我构建了 SYNQ。
什么是 SYNQ?
SYNQ 是一个开源的 Chrome 扩展 + 本地后端,为你的 AI 助手(Claude、ChatGPT 或 Gemini)提供持久记忆。它捕获你的对话,将其提炼为语义知识图谱,并通过零损失的 RAG 流程自动在下一个提示中注入相关上下文。
技术栈
为了保持全部私密且高速,我采用了完全本地优先的架构:
- 后端:Node.js & Express 5
- 扩展:TypeScript & Chrome Manifest V3
- 向量数据库:ChromaDB 用于语义搜索
- 图数据库:Neo4j 用于实体关系映射
- 本地嵌入:Ollama (nomic‑embed‑text)
- LLM 处理:Groq LLaMA 3.1(用于高速图谱抽取)
我自豪的关键特性
- 零损失分块器 – 与大多数使用有损 LLM 摘要的 RAG 应用不同,SYNQ 使用滑动窗口分块器,确保即使是小的个人细节(例如你猫的名字)也能被保留。
- 自动连接 – 实时拦截你的提示。在 AI 看到你的消息之前,SYNQ 静默地在前面添加最相关的前三条历史“记忆”。
- 知识图谱 – 使用 D3.js 构建,可视化你的项目历史,展示 Database、User Auth、Stripe 等实体随时间的关联方式。
- 隐私清理 – 在任何内容被处理之前,自动对 API 密钥和 JWT 进行脱敏。
为什么开源?
我目前是一名准备实习的工程专业学生。构建这个工具帮助我管理自己的项目工作流,但我意识到“上下文主权”——即你应该拥有自己的聊天历史,而不是交给 LLM 提供商——是我们每个人都需要的。
在 GitHub 上查看:
⭐