如何使用 OpenClaw 部署您自己的 Agent

发布: (2026年3月9日 GMT+8 12:27)
12 分钟阅读
原文: Dev.to

Source: Dev.to

OpenClaw 让您能够在自己的基础设施上运行强大的 AI 助手。本指南将带您一步步可靠地部署它——从初始设置到生产环境。

目录

  1. OpenClaw 是什么?
  2. 运行时模型概述
  3. 部署层次
  4. 部署方式
  5. 入职与配置
  6. Web UI 访问
  7. 部署到 Sevalla(PaaS)
  8. 与助手交互
  9. 安全提示
  10. 概览
  11. 人们如何使用 OpenClaw
  12. 安全部署指南
  13. 更新 OpenClaw
  14. 监控与维护
  15. 选择部署模型
  16. 最终思考

OpenClaw 是什么?

OpenClaw 是一个 自托管 AI 助手,在你的控制下运行,而不是在托管的 SaaS 平台内部。它可以:

  • 连接到消息接口(Telegram、Discord 等)
  • 接入本地工具和模型提供商(OpenAI、Anthropic、Claude,…)
  • 将执行和数据保持在你自己的基础设施附近

该项目正积极开发中。其当前生态围绕 CLI 驱动的设置流程、入门向导,以及从本地安装到容器化或云托管的多种部署路径展开。

Runtime Model Overview

OpenClaw 本质上是一个 本地优先的 AI 助手,以服务形式运行,并通过聊天界面和 网关架构 暴露交互。

  • 网关 – 处理消息平台、模型和本地功能之间通信的核心运行单元。
  • 三层部署结构
    1. CLI 与运行时 – 启动并管理助手。
    2. 配置与入职 – 选择模型提供商和集成方式。
    3. 持久化与执行上下文 – 决定 OpenClaw 的运行位置(笔记本、VPS、容器等)。

由于 OpenClaw 能访问本地资源,部署决策不仅关乎便利性,还涉及 安全边界。应将其视为管理系统,而非仅仅是聊天机器人。

部署层

责任
CLI 与运行时启动服务,提供命令(openclaw …)。
配置与入职存储提供商密钥、集成设置,生成网关使用的本地配置文件。
持久化与执行上下文决定宿主环境(本地机器、VPS、Docker、云)。

Source:

部署方式

本地机器安装(最快速方式)

官方安装脚本抽象了大多数环境复杂性。

curl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
  • 检测操作系统和依赖
  • 通过 npm 全局安装 CLI
  • 自动启动入门向导

推荐 用于首次部署和实验。

基于 npm 的安装

如果你已经维护了 Node 环境,可以直接安装 OpenClaw:

npm i -g openclaw

然后运行入门向导(并可选地安装守护进程以实现持久后台运行):

openclaw onboard

这种方式让你对版本管理和更新节奏拥有更多控制。

VPS / 云实例

部署到虚拟专用服务器或云 VM 可提供 始终在线可用性,让你可以随时随地与 OpenClaw 交互。相同的安装步骤(安装脚本或 npm)同样适用,只需在远程主机上运行即可。

容器化(Docker)部署

容器化部署的优势包括:

  • 可复现性
  • 更清晰的依赖隔离
  • 便捷的升级与迁移

OpenClaw 的代码库中包含 Dockerfile 和 docker‑compose.yml 配置。使用它们来构建或拉取现成的镜像。

入职与配置

无论采用哪种安装方式,都请确认 openclaw CLI 能在你的 shell 中被发现(全局 npm 包有时会被自定义 Node 管理器隐藏)。

在入职过程中,你将:

  1. 选择 AI 提供商(OpenAI、Anthropic、Claude 等)
  2. 配置认证(API 密钥)
  3. 选择交互渠道(Web UI、Telegram、Discord …)

这些步骤会生成网关使用的本地配置文件。建议在生产部署时尽早完成入职,以便立即验证端到端功能。

你可以跳过某些步骤,稍后再配置集成,但完整的引导设置可以简化故障排查。

Web UI 访问

在添加 API 密钥(例如 OpenAI 或 Claude)后,您可以打开 Web UI:

http://localhost:18789

使用此界面在本地与 OpenClaw 交互。

部署到 Sevalla(PaaS)

Sevalla 是一个面向开发者的 PaaS,支持 Docker 镜像。

  1. 登录 Sevalla 并点击 “Create application.”
  2. 选择 “Docker image” 作为来源(而不是 GitHub 仓库)。
  3. 将镜像设置为 manishmshiva/openclaw(会自动从 DockerHub 拉取)。
  4. 点击 “Create application.”

环境变量

  • 前往 Environment Variables → Add,设置 ANTHROPIC_API_KEY(或您需要的其他提供商密钥)。

部署

  • 前往 Deployments → Deploy now

部署成功后,点击 “Visit app”,即可通过 Sevalla 提供的 URL 与 UI 交互。

与助手交互

OpenClaw 可以通过多种渠道访问:

  • Web UI(localhost 或 PaaS URL)
  • Telegram 机器人 – 在入职期间配置机器人令牌以启用基于聊天的交互。
  • Discord – 通过入职向导进行类似设置。

典型任务包括:

  • 清理收件箱
  • 监控网站以获取新文章
  • 在本地机器上执行自定义自动化

Security Note

⚠️ 让 AI 系统完全控制你的系统是危险的。
在任何机器上运行 OpenClaw 之前,请确保你了解风险,尤其是生产环境或可公开访问的主机。将助手视为管理工具,并实施适当的安全边界(防火墙、最小权限 API 密钥、隔离容器等)。

概览

OpenClaw 仍处于早期阶段,因此让它访问关键应用或文件 并不理想或安全。错误或意外泄露私人信息的风险仍然很高。

如何使用 OpenClaw

  • 执行任务并访问系统资源
  • 与消息渠道集成(令牌和 API 密钥必须视为敏感机密)

因为 OpenClaw 可以直接与你的系统交互,部署安全是强制性的.

Source:

安全部署指南

1. 将服务绑定到本地主机

  • 在需要远程控制时使用安全隧道(例如 SSH、VPN)。
  • 这可以显著降低暴露风险。

2. 加固主机(VPS 或物理服务器)

  • 非 root 用户下运行 OpenClaw。
  • 保持所有软件包 最新
  • 将入站端口限制为仅必要的端口。
  • 持续监控日志以发现可疑活动。

3. 正确管理机密

  • 将令牌、API 密钥及其他凭证视为 敏感机密
  • 尽可能避免将它们存放在明文配置文件中。

4. 容器化(可选但有帮助)

  • 容器可以隔离依赖,但 并不能消除主机层面的风险
  • 仔细限定网络和卷的权限范围。

5. 保持 OpenClaw 更新

  • 项目发展迅速,频繁发布新版本和功能变更。
  • 定期更新可提升 稳定性、安全性和与集成的兼容性

更新 OpenClaw

安装方式更新步骤
基于 npmnpm install -g openclaw(或相应的包名)。在生产环境之前,请在预演环境中测试升级。
基于源码从代码仓库拉取最新更改,然后重新构建。避免将旧的构建产物与新代码混合。

监控与维护

  • 日志检查 – 简单的日志检查可以及早发现集成失败。
  • 正常运行时间检查 – 对于关键任务部署,考虑使用外部正常运行时间监控服务。
  • 进程监督器 – 使用 systemdpm2supervisord 等工具保持代理运行,并在失败时自动重启。

选择部署模型

模型优势考虑因素
本地(本地部署)最高隐私;无外部暴露。需要个人硬件和维护。
云端 / VPS持续可用;轻松远程访问。必须加固主机并确保网络访问安全。
容器化跨环境一致性;易于迁移。仍需谨慎处理权限和机密信息。

最终思考

部署您自己的 OpenClaw 代理是关于 掌控 您的 AI 助手的工作方式、运行位置以及它如何融入您的日常工作流。设置过程相对简单,但真正的价值在于您对安全和运营选择的理解:

  • 从小做起 – 在沙盒或预发布环境中安全实验。
  • 迭代 – 随着信心的提升逐步扩展功能。
  • 拥有体验 – 自托管的代理为您提供灵活性、所有权,以及围绕特定需求塑造助手的自由。

随着时间推移,最初的简单部署可以演变为可靠、个性化的系统,完全按照您的意愿运行——在您的掌控之下

0 浏览
Back to Blog

相关文章

阅读更多 »