Apex B. OpenClaw,局部嵌入
Source: Dev.to
本地嵌入用于私有记忆搜索
默认情况下,OpenClaw 的记忆搜索会把文本发送到外部的嵌入 API(通常是 Anthropic 或 OpenAI),以生成用于语义搜索的向量嵌入。这种方式可行,但有两个缺点:每次查询会产生费用,而且你的记忆内容会离开本机。
如果你想要完全本地、免费且私密的记忆搜索,可以将 OpenClaw 配置为使用 node-llama-cpp 并加载一个小型 GGUF 嵌入模型。这样全部在你的 Mac Mini 上运行——无需 API 调用,数据也不会离开机器。
启用记忆搜索
openclaw config set memory.search.enable true
将嵌入提供者设置为本地
openclaw config set memory.search.provider local
重启网关以应用更改
openclaw gateway restart
OpenClaw 会自动下载一个轻量级的 GGUF 嵌入模型并开始为你的记忆文件建立索引。对于配备 16 GB RAM 的基础版 Mac Mini 来说,这完全可以轻松运行——嵌入模型相较于完整的大语言模型体积非常小。
首次为 1,000 多个文件建立索引大约需要几分钟。之后,新文件会以增量方式进行索引。
搜索质量在关键词和主题匹配方面表现非常好。虽然无法达到最前沿的嵌入 API 在细微语义查询上的质量,但对于 “我对 X 的决定是什么” 之类的检索已经足够。
零持续费用。零数据离开你的机器。
何时使用本地嵌入 vs. API 嵌入
本地(推荐大多数情况)
- 免费且私密。
- 对大多数场景足够快。
- 如果你在进行 air‑gapping(隔离)或希望将成本降到最低,这种方式是理想选择。
基于 API(Anthropic、OpenAI 或 Gemini)
- 对大型记忆库提供更好的语义质量。
- 当你有成千上万的文件,需要在细致的查询中实现精确召回,并且不介意费用或数据离开本机时使用。
Gemini 免费层(折中方案)
- 如果已经配置了 Gemini API 密钥,这是成本最低且质量尚可的 API 备选方案。