OpenClaw 快速入门:使用 Docker 安装(Ollama GPU 或 Claude + CPU)
Source: Dev.to
介绍
OpenClaw 是一个自托管的 AI 助手,可使用本地 LLM 运行时(如 Ollama)或通过 Anthropic API 使用云端模型(如 Claude Sonnet 4.6)。本快速入门指南展示了如何使用 Docker 部署 OpenClaw、配置 GPU 加速的本地模型或仅使用 CPU 的云模型,并验证助手的端到端工作情况。
目标很简单:
- 让 OpenClaw 运行。
- 发送请求。
- 确认其正常工作。
这 不是 生产环境硬化指南。
您有两种选择:
- 路径 A – 使用 Ollama 的本地 GPU(如果您拥有兼容的 GPU,推荐使用)
- 路径 B – 通过 Anthropic API 使用仅 CPU 的 Claude Sonnet 4.6
两条路径共享相同的核心安装步骤。
前置条件
| 需求 | 详情 |
|---|---|
| Git | git 命令行 |
| Docker Desktop(或 Docker + Docker Compose) | Docker Engine ≥ 20.10 |
| 终端 | Bash、Zsh、PowerShell 等 |
| GPU(可选) | NVIDIA 或 AMD,已安装驱动 |
| Ollama(可选) | 如果使用路径 A,则已在主机上安装 |
| Anthropic API 密钥 | 路径 B 必需 |
安装
# Clone the repository
git clone https://github.com/openclaw/openclaw.git
cd openclaw
# Copy the example environment file
cp .env.example .env
编辑 .env 文件(具体需要的变量请参见下文各章节)。
启动容器:
docker compose up -d
验证容器是否正在运行:
docker ps
此时 OpenClaw 已经启动,但尚未连接到 LLM 提供商。
配置 LLM 提供商
路径 A – 使用本地 GPU 与 Ollama
-
安装 Ollama(如果尚未安装):
curl -fsSL https://ollama.com/install.sh | sh -
拉取并测试模型(例如
llama3):ollama pull llama3 ollama run llama3 # 应该会返回响应 -
更新
.env:LLM_PROVIDER=ollama OLLAMA_BASE_URL=http://host.docker.internal:11434 OLLAMA_MODEL=llama3 -
重启容器:
docker compose restart
OpenClaw 现在会将推理请求路由到本地的 Ollama 实例。
如需了解 Ollama 的安装、模型存储位置以及 CLI 命令的更多细节,请参阅官方文档:
[Install Ollama and Configure Models Location]
[Ollama CLI Cheatsheet (2026 update)]
路径 B – 仅使用 CPU 与 Claude Sonnet 4.6
-
从 Anthropic 控制台获取 Anthropic API 密钥。
-
更新
.env:LLM_PROVIDER=anthropic ANTHROPIC_API_KEY=your_api_key_here ANTHROPIC_MODEL=claude-sonnet-4-6 -
重启容器:
docker compose restart
OpenClaw 现在将使用 Claude Sonnet 4.6 进行推理,适用于没有 GPU 的机器。
验证设置
健康检查
curl http://localhost:3000/health
你应该收到一个指示健康状态的 JSON 响应。
简单聊天测试
curl -X POST http://localhost:3000/chat \
-H "Content-Type: application/json" \
-d '{"message": "Explain what OpenClaw does in simple terms."}'
结构化的响应确认请求‑响应循环正常工作。
调试技巧
-
检查容器日志
docker compose logs -
确认 Ollama 正在运行(GPU 路径)
ollama list -
验证环境变量 – 确保
OLLAMA_BASE_URL或ANTHROPIC_API_KEY正确。 -
GPU 未被使用?
- 确认主机已安装 GPU 驱动。
- 确保 Docker 已启用 GPU 访问(例如
--gpus all参数或 Docker Desktop 的 GPU 设置)。
下一步
- 连接消息平台(Slack、Discord 等)。
- 启用文档检索和知识库。
- 试验路由策略和工具使用。
- 添加可观测性、指标和日志记录。
- 为所选的 LLM 提供商调优性能和成本设置。
让 OpenClaw 运行起来是第一步;从这里你可以探索更丰富的架构特性,构建复杂的 AI 驱动工作流。