自托管您的 AI Agent Factory:Linux 优先的 Flowise 指南
Source: Dev.to
概览
AI 领域正在发生变化。虽然像 OpenAI 和 Claude 这样的云托管解决方案使用方便,但对开发者和自动化爱好者来说,真正的力量在于 主权。如果你在乎数据隐私、延迟以及避免按请求计费,自己托管才是前进的方向。
今天,我们将关注 FlowiseAI——一个开源、低代码平台,能够让你以可视化方式构建复杂的 LLM 链和 AI 代理。我们将在 Linux 服务器上使用 Docker Compose 部署它,并连接本地或远程模型。
为什么选择 Flowise?
不同于传统的自动化工具,Flowise 专为 LangChain 生态系统构建。它可以让你:
- 拖拽 创建复杂的 RAG(检索增强生成)流水线。
- 集成 超过 100 种工具(Google 搜索、GitHub、Slack 等)。
- 通过 干净的 API 或聊天小部件暴露你的代理。
前置条件
- 一台 Linux VPS 或本地机器(推荐 Ubuntu 22.04+ 或 Debian 12)。
- 已安装 Docker 和 Docker Compose。
- 至少 4 GB 内存(AI 工作流可能会占用大量内存)。
第一步:准备工作空间
为 Flowise 实例创建专用目录:
mkdir ~/flowise-server && cd ~/flowise-server
第二步:创建 Docker Compose 配置
Flowise 可以使用简单的 SQLite 数据库运行,适合小型部署。创建 docker-compose.yml 文件:
services:
flowise:
image: flowiseai/flowise:latest
restart: always
environment:
- PORT=3000
- DATABASE_PATH=/root/.flowise
- APIKEY_PATH=/root/.flowise
- SECRETKEY_PATH=/root/.flowise
- LOG_PATH=/root/.flowise/logs
- BLOB_STORAGE_PATH=/root/.flowise/storage
ports:
- "3000:3000"
volumes:
- ~/.flowise:/root/.flowise
command: /bin/sh -c "sleep 3; flowise start"
关键环境变量
PORT:Flowise 监听的内部和外部端口。DATABASE_PATH:保存你的流程和凭证的位置。请务必备份!
第三步:部署
启动容器:
docker compose up -d
验证是否运行:
docker compose ps
现在可以通过 http://your-ip:3000 访问仪表盘。
第四步:构建你的第一个代理(动手实践)
- 在仪表盘中点击 + Create New。
- 添加一个 Chat Model 节点(例如 ChatOpenAI 或本地 Ollama 节点)。
- 添加一个 Tool Agent 节点。
- 添加一个 Google Search Tool(需要 SerpApi 密钥)。
- 将节点连接起来。
Tool Agent 充当大脑,决定何时从网络获取实时数据,何时仅使用内部知识作答。
安全提示:反向代理
如果将 Flowise 暴露到互联网,不要直接开放 3000 端口。请使用 Nginx 或 Caddy 并配合基本认证或 SSO 提供商。
# Example Caddyfile for SSL
flowise.yourdomain.com {
reverse_proxy localhost:3000
}