高级本地 AI:使用 Ollama + OpenClaw 构建数字员工

发布: (2026年2月26日 GMT+8 18:37)
7 分钟阅读
原文: Dev.to

Source: Dev.to

请提供您希望翻译的具体文本内容,我将按照要求将其翻译成简体中文并保留原有的格式、Markdown 语法以及技术术语。

聊天已不够——将 Ollama 的推理与 OpenClaw 的执行相结合

2025 年被称为“本地大模型之年”。到 2026 年,单纯的“对话”已经无法满足技术爱好者的胃口。我们想要 Agents——不仅能说话,更能真正为我们工作。

为什么这个组合是最硬核的本地 AI 堆栈

  • Ollama – 强大的推理引擎(本地 LLM 服务器)。
  • OpenClaw – 自主执行框架(数字员工),能够:
    • 操作浏览器
    • 读写文件
    • 运行 shell 命令和代码

它们一起将文本生成器变成 数字员工

1️⃣ 安装并准备 Ollama

  1. 下载 – 前往 并为你的操作系统安装相应版本。
  2. 打开终端 并拉取你需要的模型(选择支持 Tool Calling 的模型):
# 通用推理模型
ollama pull llama3.3

# 代码专用模型
ollama pull qwen2.5-coder:32b

# 强大推理模型
ollama pull deepseek-r1:32b

# 轻量选项
ollama pull gpt-oss:20b

更直观地管理模型

终端下载是一个 “黑箱”。
OllaMan(Ollama 的图形界面)让你可以:

  • 以可视化方式浏览在线模型库
  • 点击图片进行下载
  • 查看实时下载速度和进度
  • 在将模型分配给 Agent 之前测试其推理能力

如果模型无法进行逻辑对话,就没有必要把它接入 Agent。

Source:

2️⃣ 安装与设置 OpenClaw

系统要求

  • Node.js 22 或更高版本

检查你的 Node 版本:

node --version

一键安装器(推荐)

# macOS / Linux / WSL2
curl -fsSL https://openclaw.ai/install.sh | bash

# Windows PowerShell
iwr -useb https://openclaw.ai/install.ps1 | iex

💡 脚本会自动检测并安装 Node 22+(如果缺失),并启动入职向导。

仅安装 CLI(跳过入职向导)

# macOS / Linux / WSL2
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --no-onboard

手动安装(如果你已经拥有 Node 22+)

# npm
npm install -g openclaw@latest
openclaw onboard --install-daemon

# pnpm
pnpm add -g openclaw@latest
pnpm approve-builds -g
openclaw onboard --install-daemon

macOS 桌面应用(可选)

  1. OpenClaw Releases 下载最新的 .dmg
  2. 安装并启动 OpenClaw.app
  3. 完成系统权限提示(TCC)。

将 OpenClaw 连接到 Ollama

OpenClaw 需要 API 密钥 来使用 Ollama 提供商(任意字符串即可;Ollama 本身并不需要真实密钥)。

# 设置环境变量
export OLLAMA_API_KEY="ollama-local"

# 或者通过 OpenClaw 配置命令
openclaw config set models.providers.ollama.apiKey "ollama-local"

确保 Ollama 正在运行

# 验证服务
curl http://localhost:11434/api/tags

# 如果未运行,启动它
ollama serve

运行交互式配置向导

openclaw onboard

向导将会:

  • 扫描 http://127.0.0.1:11434 以查找本地 Ollama 模型
  • 检测所有支持 工具调用 的模型
  • 填充默认模型设置

手动模型配置(可选)

编辑 ~/.openclaw/openclaw.json

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/llama3.3",
        "fallbacks": ["ollama/qwen2.5-coder:32b"]
      }
    }
  }
}

验证模型检测

# 列出 OpenClaw 识别的模型
openclaw models list

# 列出已安装的 Ollama 模型
ollama list

3️⃣ 启动 OpenClaw 网关

openclaw gateway
  • 默认地址: ws://127.0.0.1:18789
  • 此核心服务协调模型调用和技能执行。

4️⃣ 将技能生态系统付诸实践

OpenClaw 可以直接读取本地项目文件。

示例命令:

“遍历当前目录下 src/components 中的所有 .tsx 文件,检查是否有 useEffect 缺少依赖,并将风险点汇总到 review_report.md。”

工作原理

  1. 文件系统技能 – OpenClaw 遍历目录树。
  2. Ollama(例如 Llama 3) – 读取每个文件,对缺少的依赖进行逻辑推理。
  3. OpenClaw – 汇总推理结果并写入 review_report.md

这比把代码片段复制到远程 ChatGPT 更高效,且 您的数据永不离开本机

🎉 您已准备就绪!

您现在拥有一个功能完整的本地 AI 堆栈:

  • Ollama – 推理与工具调用的大语言模型
  • OpenClaw – 自动执行、文件系统访问、浏览器控制

开始构建能够 思考行动保持本地 的代理吧。祝您玩得开心!

OpenClaw 与聊天平台的集成

OpenClaw 支持与 SlackDiscordTelegram 等聊天平台的集成。这意味着你可以把家用电脑变成随时待命的服务器。

使用示例

在配置好 Telegram 机器人集成后,当你外出时只需在手机上发送一条信息:

“Hey Claw,帮我检查一下家里 NAS 的剩余磁盘空间。如果低于 10 %,给我发送警报。”

OpenClaw 将会:

  1. 在你的家用电脑上运行 shell 命令 df -h
  2. 分析结果。
  3. 将报告发送回你的手机。
df -h

构建完整的本地 AI 生产力循环

  • Ollama – 提供智能。
  • OllaMan – 管理模型资产。
  • OpenClaw – 执行具体任务。

它们共同构成一个完全 私有免费、且 受你控制 的 AI 工作流。

入门指南

如果你已经厌倦了仅仅聊天,尝试在电脑上安装 OpenClaw,看看在这个 AI 助手的帮助下你的工作流如何演进。

0 浏览
Back to Blog

相关文章

阅读更多 »