OpenClaw 快速入门:使用 Docker 安装(Ollama GPU 或 Claude + CPU)

发布: (2026年3月3日 GMT+8 19:41)
5 分钟阅读
原文: Dev.to

Source: Dev.to

介绍

OpenClaw 是一个自托管的 AI 助手,可使用本地 LLM 运行时(如 Ollama)或通过 Anthropic API 使用云端模型(如 Claude Sonnet 4.6)。本快速入门指南展示了如何使用 Docker 部署 OpenClaw、配置 GPU 加速的本地模型或仅使用 CPU 的云模型,并验证助手的端到端工作情况。

目标很简单:

  1. 让 OpenClaw 运行。
  2. 发送请求。
  3. 确认其正常工作。

不是 生产环境硬化指南。

您有两种选择:

  • 路径 A – 使用 Ollama 的本地 GPU(如果您拥有兼容的 GPU,推荐使用)
  • 路径 B – 通过 Anthropic API 使用仅 CPU 的 Claude Sonnet 4.6

两条路径共享相同的核心安装步骤。

前置条件

需求详情
Gitgit 命令行
Docker Desktop(或 Docker + Docker Compose)Docker Engine ≥ 20.10
终端Bash、Zsh、PowerShell 等
GPU(可选)NVIDIA 或 AMD,已安装驱动
Ollama(可选)如果使用路径 A,则已在主机上安装
Anthropic API 密钥路径 B 必需

安装

# Clone the repository
git clone https://github.com/openclaw/openclaw.git
cd openclaw

# Copy the example environment file
cp .env.example .env

编辑 .env 文件(具体需要的变量请参见下文各章节)。

启动容器:

docker compose up -d

验证容器是否正在运行:

docker ps

此时 OpenClaw 已经启动,但尚未连接到 LLM 提供商。

配置 LLM 提供商

路径 A – 使用本地 GPU 与 Ollama

  1. 安装 Ollama(如果尚未安装):

    curl -fsSL https://ollama.com/install.sh | sh
  2. 拉取并测试模型(例如 llama3):

    ollama pull llama3
    ollama run llama3   # 应该会返回响应
  3. 更新 .env

    LLM_PROVIDER=ollama
    OLLAMA_BASE_URL=http://host.docker.internal:11434
    OLLAMA_MODEL=llama3
  4. 重启容器

    docker compose restart

OpenClaw 现在会将推理请求路由到本地的 Ollama 实例。

如需了解 Ollama 的安装、模型存储位置以及 CLI 命令的更多细节,请参阅官方文档:
[Install Ollama and Configure Models Location]
[Ollama CLI Cheatsheet (2026 update)]

路径 B – 仅使用 CPU 与 Claude Sonnet 4.6

  1. 从 Anthropic 控制台获取 Anthropic API 密钥

  2. 更新 .env

    LLM_PROVIDER=anthropic
    ANTHROPIC_API_KEY=your_api_key_here
    ANTHROPIC_MODEL=claude-sonnet-4-6
  3. 重启容器

    docker compose restart

OpenClaw 现在将使用 Claude Sonnet 4.6 进行推理,适用于没有 GPU 的机器。

验证设置

健康检查

curl http://localhost:3000/health

你应该收到一个指示健康状态的 JSON 响应。

简单聊天测试

curl -X POST http://localhost:3000/chat \
     -H "Content-Type: application/json" \
     -d '{"message": "Explain what OpenClaw does in simple terms."}'

结构化的响应确认请求‑响应循环正常工作。

调试技巧

  • 检查容器日志

    docker compose logs
  • 确认 Ollama 正在运行(GPU 路径)

    ollama list
  • 验证环境变量 – 确保 OLLAMA_BASE_URLANTHROPIC_API_KEY 正确。

  • GPU 未被使用?

    • 确认主机已安装 GPU 驱动。
    • 确保 Docker 已启用 GPU 访问(例如 --gpus all 参数或 Docker Desktop 的 GPU 设置)。

下一步

  • 连接消息平台(Slack、Discord 等)。
  • 启用文档检索和知识库。
  • 试验路由策略和工具使用。
  • 添加可观测性、指标和日志记录。
  • 为所选的 LLM 提供商调优性能和成本设置。

让 OpenClaw 运行起来是第一步;从这里你可以探索更丰富的架构特性,构建复杂的 AI 驱动工作流。

0 浏览
Back to Blog

相关文章

阅读更多 »

当工作成为心理健康风险时

markdown !Ravi Mishrahttps://media2.dev.to/dynamic/image/width=50,height=50,fit=cover,gravity=auto,format=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fu...