如何使用 OpenClaw 部署您自己的 Agent
Source: Dev.to
OpenClaw 让您能够在自己的基础设施上运行强大的 AI 助手。本指南将带您一步步可靠地部署它——从初始设置到生产环境。
目录
- OpenClaw 是什么?
- 运行时模型概述
- 部署层次
- 部署方式
- 入职与配置
- Web UI 访问
- 部署到 Sevalla(PaaS)
- 与助手交互
- 安全提示
- 概览
- 人们如何使用 OpenClaw
- 安全部署指南
- 更新 OpenClaw
- 监控与维护
- 选择部署模型
- 最终思考
OpenClaw 是什么?
OpenClaw 是一个 自托管 AI 助手,在你的控制下运行,而不是在托管的 SaaS 平台内部。它可以:
- 连接到消息接口(Telegram、Discord 等)
- 接入本地工具和模型提供商(OpenAI、Anthropic、Claude,…)
- 将执行和数据保持在你自己的基础设施附近
该项目正积极开发中。其当前生态围绕 CLI 驱动的设置流程、入门向导,以及从本地安装到容器化或云托管的多种部署路径展开。
Runtime Model Overview
OpenClaw 本质上是一个 本地优先的 AI 助手,以服务形式运行,并通过聊天界面和 网关架构 暴露交互。
- 网关 – 处理消息平台、模型和本地功能之间通信的核心运行单元。
- 三层部署结构:
- CLI 与运行时 – 启动并管理助手。
- 配置与入职 – 选择模型提供商和集成方式。
- 持久化与执行上下文 – 决定 OpenClaw 的运行位置(笔记本、VPS、容器等)。
由于 OpenClaw 能访问本地资源,部署决策不仅关乎便利性,还涉及 安全边界。应将其视为管理系统,而非仅仅是聊天机器人。
部署层
| 层 | 责任 |
|---|---|
| CLI 与运行时 | 启动服务,提供命令(openclaw …)。 |
| 配置与入职 | 存储提供商密钥、集成设置,生成网关使用的本地配置文件。 |
| 持久化与执行上下文 | 决定宿主环境(本地机器、VPS、Docker、云)。 |
Source: …
部署方式
本地机器安装(最快速方式)
官方安装脚本抽象了大多数环境复杂性。
curl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd && del install.cmd
- 检测操作系统和依赖
- 通过 npm 全局安装 CLI
- 自动启动入门向导
推荐 用于首次部署和实验。
基于 npm 的安装
如果你已经维护了 Node 环境,可以直接安装 OpenClaw:
npm i -g openclaw
然后运行入门向导(并可选地安装守护进程以实现持久后台运行):
openclaw onboard
这种方式让你对版本管理和更新节奏拥有更多控制。
VPS / 云实例
部署到虚拟专用服务器或云 VM 可提供 始终在线可用性,让你可以随时随地与 OpenClaw 交互。相同的安装步骤(安装脚本或 npm)同样适用,只需在远程主机上运行即可。
容器化(Docker)部署
容器化部署的优势包括:
- 可复现性
- 更清晰的依赖隔离
- 便捷的升级与迁移
OpenClaw 的代码库中包含 Dockerfile 和 docker‑compose.yml 配置。使用它们来构建或拉取现成的镜像。
入职与配置
无论采用哪种安装方式,都请确认 openclaw CLI 能在你的 shell 中被发现(全局 npm 包有时会被自定义 Node 管理器隐藏)。
在入职过程中,你将:
- 选择 AI 提供商(OpenAI、Anthropic、Claude 等)
- 配置认证(API 密钥)
- 选择交互渠道(Web UI、Telegram、Discord …)
这些步骤会生成网关使用的本地配置文件。建议在生产部署时尽早完成入职,以便立即验证端到端功能。
你可以跳过某些步骤,稍后再配置集成,但完整的引导设置可以简化故障排查。
Web UI 访问
在添加 API 密钥(例如 OpenAI 或 Claude)后,您可以打开 Web UI:
http://localhost:18789
使用此界面在本地与 OpenClaw 交互。
部署到 Sevalla(PaaS)
Sevalla 是一个面向开发者的 PaaS,支持 Docker 镜像。
- 登录 Sevalla 并点击 “Create application.”
- 选择 “Docker image” 作为来源(而不是 GitHub 仓库)。
- 将镜像设置为
manishmshiva/openclaw(会自动从 DockerHub 拉取)。 - 点击 “Create application.”
环境变量
- 前往 Environment Variables → Add,设置
ANTHROPIC_API_KEY(或您需要的其他提供商密钥)。
部署
- 前往 Deployments → Deploy now。
部署成功后,点击 “Visit app”,即可通过 Sevalla 提供的 URL 与 UI 交互。
与助手交互
OpenClaw 可以通过多种渠道访问:
- Web UI(localhost 或 PaaS URL)
- Telegram 机器人 – 在入职期间配置机器人令牌以启用基于聊天的交互。
- Discord – 通过入职向导进行类似设置。
典型任务包括:
- 清理收件箱
- 监控网站以获取新文章
- 在本地机器上执行自定义自动化
Security Note
⚠️ 让 AI 系统完全控制你的系统是危险的。
在任何机器上运行 OpenClaw 之前,请确保你了解风险,尤其是生产环境或可公开访问的主机。将助手视为管理工具,并实施适当的安全边界(防火墙、最小权限 API 密钥、隔离容器等)。
概览
OpenClaw 仍处于早期阶段,因此让它访问关键应用或文件 并不理想或安全。错误或意外泄露私人信息的风险仍然很高。
如何使用 OpenClaw
- 执行任务并访问系统资源
- 与消息渠道集成(令牌和 API 密钥必须视为敏感机密)
因为 OpenClaw 可以直接与你的系统交互,部署安全是强制性的.
Source: …
安全部署指南
1. 将服务绑定到本地主机
- 在需要远程控制时使用安全隧道(例如 SSH、VPN)。
- 这可以显著降低暴露风险。
2. 加固主机(VPS 或物理服务器)
- 在 非 root 用户下运行 OpenClaw。
- 保持所有软件包 最新。
- 将入站端口限制为仅必要的端口。
- 持续监控日志以发现可疑活动。
3. 正确管理机密
- 将令牌、API 密钥及其他凭证视为 敏感机密。
- 尽可能避免将它们存放在明文配置文件中。
4. 容器化(可选但有帮助)
- 容器可以隔离依赖,但 并不能消除主机层面的风险。
- 仔细限定网络和卷的权限范围。
5. 保持 OpenClaw 更新
- 项目发展迅速,频繁发布新版本和功能变更。
- 定期更新可提升 稳定性、安全性和与集成的兼容性。
更新 OpenClaw
| 安装方式 | 更新步骤 |
|---|---|
| 基于 npm | npm install -g openclaw(或相应的包名)。在生产环境之前,请在预演环境中测试升级。 |
| 基于源码 | 从代码仓库拉取最新更改,然后重新构建。避免将旧的构建产物与新代码混合。 |
监控与维护
- 日志检查 – 简单的日志检查可以及早发现集成失败。
- 正常运行时间检查 – 对于关键任务部署,考虑使用外部正常运行时间监控服务。
- 进程监督器 – 使用
systemd、pm2或supervisord等工具保持代理运行,并在失败时自动重启。
选择部署模型
| 模型 | 优势 | 考虑因素 |
|---|---|---|
| 本地(本地部署) | 最高隐私;无外部暴露。 | 需要个人硬件和维护。 |
| 云端 / VPS | 持续可用;轻松远程访问。 | 必须加固主机并确保网络访问安全。 |
| 容器化 | 跨环境一致性;易于迁移。 | 仍需谨慎处理权限和机密信息。 |
最终思考
部署您自己的 OpenClaw 代理是关于 掌控 您的 AI 助手的工作方式、运行位置以及它如何融入您的日常工作流。设置过程相对简单,但真正的价值在于您对安全和运营选择的理解:
- 从小做起 – 在沙盒或预发布环境中安全实验。
- 迭代 – 随着信心的提升逐步扩展功能。
- 拥有体验 – 自托管的代理为您提供灵活性、所有权,以及围绕特定需求塑造助手的自由。
随着时间推移,最初的简单部署可以演变为可靠、个性化的系统,完全按照您的意愿运行——在您的掌控之下。