SuperLocalMemory v2.7:你的 AI 学会了解你 — 本地 ML 的自适应学习
Source: Dev.to
我们解决的问题
您已经使用 SuperLocalMemory 三个月了。您在多个项目中存储了成千上万的记忆——架构决策、编码模式、部署笔记、调试发现。系统运行良好。持久化正常。跨工具共享也能实现。
但搜索变得嘈杂。
当您回忆 “database configuration” 时,会得到五十条结果。有些来自您当前的项目,有些来自六周前完成的项目,还有一些来自您仅实验了一小时就放弃的快速实验。系统把它们全部等同对待,因为直到现在,它没有办法知道在当前上下文中哪些结果对您最重要。
这就是每个记忆系统都会遇到的扩展难题。原始的存储和检索在低容量时还能工作。但在高容量时,您需要智能——不仅是搜索,还要根据您实际的工作方式理解哪些是相关的。
SuperLocalMemory v2.7 通过自适应学习解决了这个问题。系统现在会观察您使用了哪些记忆,学习您在各项目中的使用模式,并重新排序搜索结果,以把最相关的内容优先展示。所有这些都在本地运行。没有云端。没有遥测。没有数据离开您的机器。
v2.7 新功能
- 三层本地学习架构,用于构建工作流的行为模型
- 基于 LightGBM 的自适应重新排序,随时间提升搜索相关性
- 独立的
learning.db数据库 用于行为数据,完全与您的记忆库 (memory.db) 隔离 - 三个新 MCP 工具:
memory_used、get_learned_patterns、correct_pattern - 新的 CLI 命令用于检查和管理已学习的模式
- 合成引导,使得从第一天起即可获得机器学习质量的结果——无冷启动问题
- 完全符合 GDPR,使用单命令即可导出和删除数据
学习系统架构
v2.7 学习系统分为三层,每一层都建立在下层之上。
1️⃣ 技术偏好层
跟踪你在所有项目和个人资料中的技术偏好。
- 示例信号:
- 在 TypeScript 与 JavaScript 之间的选择
- 偏好 PostgreSQL 而非 MySQL
- 更倾向使用 服务器组件 而非客户端组件
这些偏好是 可迁移 的。当你启动新项目时,你的技术倾向会随之带入。系统 不会 强制做出选择——它会调整相关性权重,使符合你既定偏好的记忆在搜索结果中排名更高。
2️⃣ 项目上下文层
通过四个信号来理解项目边界:
- 活动目录
- 最近的记忆标签
- 时间段模式
- 明确的个人资料选择
这很重要,因为关于 “API 认证” 的记忆在 Node.js 后端与 Python 数据管道中意义不同。项目上下文让排序器能够优先使用来自相关项目的记忆,而无需你每次都手动指定。
3️⃣ 序列模式层
发现你工作中的序列模式。
- 如果你在修改 CI 配置 后总是回顾 部署说明
- 如果你在编写迁移文件前总会查看 数据库模式文档
系统会学习这些序列,并能够基于你刚刚完成的操作预测你接下来可能需要的内容。这不是投机性的预测,而是基于你实际记录行为的模式识别。
自适应再排序器 (LightGBM)
位于所有三层之上。它接收来自 SuperLocalMemory 现有 FTS5 + TF‑IDF 引擎的原始搜索结果,并根据学习层对你的全部了解重新排序。
- 第一天: 使用合成训练数据(从你已有的记忆中引导)构建的规则系统。
- 真实信号累积后: 平滑过渡到完整的机器学习模型。
你永远不会经历冷启动的性能下降——从升级的那一刻起,结果就已个性化。
迁移是自动的
- 安装 v2.7。
- 像往常一样继续使用 SuperLocalMemory。
- 系统在后台学习。
几天后,你会注意到搜索结果与当前上下文更加相关。
保证
-
所有行为数据都保留在你的机器上——这是架构层面的保证,而非政策决定。
-
独立数据库:
learning.db(行为数据)与memory.db(记忆)完全隔离。 -
零遥测: 没有使用数据、分析请求、崩溃报告或任何“回传”功能。
-
GDPR‑就绪的设计:
# Export all behavioral data slm export-behavior --output behavior.json # Delete all behavioral data slm delete-behavior或者直接删除
learning.db,即可抹除痕迹,同时保持你的记忆不受影响。 -
无云端依赖: LightGBM 在本地训练;模型文件与数据库并存,具备版本管理且可移植。
研究基础
v2.7 学习架构基于已发表的研究,并针对完全本地系统的约束进行了适配:
| Layer / Component | Research Source |
|---|---|
| Adaptive re‑ranking pipeline | eKNOW 2025 – BM25‑to‑re‑ranker pipelines |
| Privacy‑preserving feedback | ADPMF (IPM 2024) |
| Cold‑start bootstrap | FCS LREC 2024 |
| Workflow pattern mining | TSW‑PrefixSpan (IEEE 2020) |
| Bayesian confidence scoring | MACLA framework (arXiv:2512.18950) |
八篇研究论文为设计提供了依据,形成了在实现个人级相关性的同时,保持一切 本地、私密且合规 的架构。
SuperLocalMemory v2.7 – 本地、零通信自适应重新排序
新颖贡献
据我们所知,SuperLocalMemory v2.7 是首个实现完全本地、零通信、自适应重新排序的个人 AI 记忆系统。该领域的先前工作普遍假设使用基于云的基础设施进行模型训练和推理。
核心命令
| Command | Description |
|---|---|
memory_used | 主要反馈通道。当您的 AI 工具在响应中使用了已召回的记忆时,它会调用 memory_used 来表示该记忆相关。这是可用的最强学习信号,并通过 MCP 自动触发。 |
get_learned_patterns | 检索您学习到的技术偏好、项目上下文和工作流模式。用于检查系统已学习的内容并验证其是否符合您的预期。 |
correct_pattern | 覆盖或纠正已学习的模式。如果系统推断您偏好 Redux,但您实际上已切换到 Zustand,此工具可让您纠正记录。系统会相应地调整其模型。 |
查看与管理学习数据
# View your learned technology preferences
slm patterns list
# See what the system knows about your current project context
slm patterns context
# Export all behavioral data (GDPR export)
slm learning export
# Delete all behavioral data
slm learning reset
# Check learning system status
slm learning status
升级至 v2.7
所需时间: 两分钟以内
# 更新到 v2.7
npm update -g superlocalmemory
# 验证版本
superlocalmemory --version
# 期望输出:2.7.x
# 检查学习系统是否已初始化
slm learning status
学习系统在升级后首次使用时会自动激活。它会在已有的 memory.db 同目录下创建 learning.db,并立即开始收集信号——无需任何配置。
可选依赖
- lightgbm
- scipy
如果使用 npm 包,这些依赖会自动安装。若是从源码安装,请运行:
pip install -r requirements-learning.txt
有关完整的迁移指南(包括对现有用户的更改以及如何验证升级),请参阅 Upgrading to v2.7 维基页面。
向后兼容性
- v2.7 完全向后兼容。
- 现有的记忆、知识图谱、模式和配置文件保持不变。
- 学习系统是增量的——它提升搜索结果,但永不修改已存储的数据。
- 如果可选的机器学习依赖不可用,系统将回退到基于规则的排序,核心功能不受影响。
展望:v2.8
v2.8 已进入规划阶段。重点将从单一学习转向 多代理协作,通过 A2A(Agent‑to‑Agent)协议 让多个 AI 代理在同一记忆层共享上下文。可以把它想象成为你的整个 AI 工具箱配备了一个共享的大脑。
更多细节将在设计成熟后公布。目前,v2.7 已让你的个人 AI 记忆显著更智能。安装后使用一周,就能感受到搜索相关性的提升。
你的 AI 正在学习你。 本地化。 私密化。 从今天开始。