高级本地 AI:使用 Ollama + OpenClaw 构建数字员工
Source: Dev.to
请提供您希望翻译的具体文本内容,我将按照要求将其翻译成简体中文并保留原有的格式、Markdown 语法以及技术术语。
聊天已不够——将 Ollama 的推理与 OpenClaw 的执行相结合
2025 年被称为“本地大模型之年”。到 2026 年,单纯的“对话”已经无法满足技术爱好者的胃口。我们想要 Agents——不仅能说话,更能真正为我们工作。
为什么这个组合是最硬核的本地 AI 堆栈
- Ollama – 强大的推理引擎(本地 LLM 服务器)。
- OpenClaw – 自主执行框架(数字员工),能够:
- 操作浏览器
- 读写文件
- 运行 shell 命令和代码
它们一起将文本生成器变成 数字员工。
1️⃣ 安装并准备 Ollama
- 下载 – 前往 并为你的操作系统安装相应版本。
- 打开终端 并拉取你需要的模型(选择支持 Tool Calling 的模型):
# 通用推理模型
ollama pull llama3.3
# 代码专用模型
ollama pull qwen2.5-coder:32b
# 强大推理模型
ollama pull deepseek-r1:32b
# 轻量选项
ollama pull gpt-oss:20b
更直观地管理模型
终端下载是一个 “黑箱”。
OllaMan(Ollama 的图形界面)让你可以:
- 以可视化方式浏览在线模型库
- 点击图片进行下载
- 查看实时下载速度和进度
- 在将模型分配给 Agent 之前测试其推理能力
如果模型无法进行逻辑对话,就没有必要把它接入 Agent。
Source: …
2️⃣ 安装与设置 OpenClaw
系统要求
- Node.js 22 或更高版本
检查你的 Node 版本:
node --version
一键安装器(推荐)
# macOS / Linux / WSL2
curl -fsSL https://openclaw.ai/install.sh | bash
# Windows PowerShell
iwr -useb https://openclaw.ai/install.ps1 | iex
💡 脚本会自动检测并安装 Node 22+(如果缺失),并启动入职向导。
仅安装 CLI(跳过入职向导)
# macOS / Linux / WSL2
curl -fsSL https://openclaw.ai/install.sh | bash -s -- --no-onboard
手动安装(如果你已经拥有 Node 22+)
# npm
npm install -g openclaw@latest
openclaw onboard --install-daemon
# pnpm
pnpm add -g openclaw@latest
pnpm approve-builds -g
openclaw onboard --install-daemon
macOS 桌面应用(可选)
- 从 OpenClaw Releases 下载最新的
.dmg。 - 安装并启动
OpenClaw.app。 - 完成系统权限提示(TCC)。
将 OpenClaw 连接到 Ollama
OpenClaw 需要 API 密钥 来使用 Ollama 提供商(任意字符串即可;Ollama 本身并不需要真实密钥)。
# 设置环境变量
export OLLAMA_API_KEY="ollama-local"
# 或者通过 OpenClaw 配置命令
openclaw config set models.providers.ollama.apiKey "ollama-local"
确保 Ollama 正在运行
# 验证服务
curl http://localhost:11434/api/tags
# 如果未运行,启动它
ollama serve
运行交互式配置向导
openclaw onboard
向导将会:
- 扫描
http://127.0.0.1:11434以查找本地 Ollama 模型 - 检测所有支持 工具调用 的模型
- 填充默认模型设置
手动模型配置(可选)
编辑 ~/.openclaw/openclaw.json:
{
"agents": {
"defaults": {
"model": {
"primary": "ollama/llama3.3",
"fallbacks": ["ollama/qwen2.5-coder:32b"]
}
}
}
}
验证模型检测
# 列出 OpenClaw 识别的模型
openclaw models list
# 列出已安装的 Ollama 模型
ollama list
3️⃣ 启动 OpenClaw 网关
openclaw gateway
- 默认地址:
ws://127.0.0.1:18789 - 此核心服务协调模型调用和技能执行。
4️⃣ 将技能生态系统付诸实践
OpenClaw 可以直接读取本地项目文件。
示例命令:
“遍历当前目录下
src/components中的所有.tsx文件,检查是否有useEffect缺少依赖,并将风险点汇总到review_report.md。”
工作原理
- 文件系统技能 – OpenClaw 遍历目录树。
- Ollama(例如 Llama 3) – 读取每个文件,对缺少的依赖进行逻辑推理。
- OpenClaw – 汇总推理结果并写入
review_report.md。
这比把代码片段复制到远程 ChatGPT 更高效,且 您的数据永不离开本机。
🎉 您已准备就绪!
您现在拥有一个功能完整的本地 AI 堆栈:
- Ollama – 推理与工具调用的大语言模型
- OpenClaw – 自动执行、文件系统访问、浏览器控制
开始构建能够 思考、行动 并 保持本地 的代理吧。祝您玩得开心!
OpenClaw 与聊天平台的集成
OpenClaw 支持与 Slack、Discord 和 Telegram 等聊天平台的集成。这意味着你可以把家用电脑变成随时待命的服务器。
使用示例
在配置好 Telegram 机器人集成后,当你外出时只需在手机上发送一条信息:
“Hey Claw,帮我检查一下家里 NAS 的剩余磁盘空间。如果低于 10 %,给我发送警报。”
OpenClaw 将会:
- 在你的家用电脑上运行 shell 命令
df -h。 - 分析结果。
- 将报告发送回你的手机。
df -h
构建完整的本地 AI 生产力循环
- Ollama – 提供智能。
- OllaMan – 管理模型资产。
- OpenClaw – 执行具体任务。
它们共同构成一个完全 私有、免费、且 受你控制 的 AI 工作流。
入门指南
如果你已经厌倦了仅仅聊天,尝试在电脑上安装 OpenClaw,看看在这个 AI 助手的帮助下你的工作流如何演进。