我如何使用 Langflow 的拖放工作流构建多平台 AI 机器人
Source: Dev.to
概览
使用可视化工作流驱动 QQ、微信、Telegram、Discord 等聊天机器人——无需编码。
LangBot 是一个开源即时通讯机器人平台,将 AI 工作流引擎(如 Langflow、n8n、Dify、FastGPT 和 Coze)连接到包括微信、QQ、飞书、钉钉、Telegram、Discord、Slack 和 LINE 在内的平台。本教程演示如何使用 Langflow 的可视化工作流作为 LangBot 的对话引擎。
为什么这种方法有效
- 真正的多平台 – 一个工作流同时驱动 8+ 消息平台。
- 可视化编排 – 拖拽式对话设计,支持条件分支、多轮对话以及外部 API 调用。
- 灵活的 AI 模型 – 支持 OpenAI、Claude、Gemini、DeepSeek 和本地模型。
- 完全开源 – LangBot 和 Langflow 均为开源项目,可免费部署和定制。
前置条件
- Python 3.10+
- Docker(推荐用于快速部署)
- OpenAI API 密钥或其他大语言模型服务的 API 密钥
步骤 1:部署 LangBot
使用 uvx 一条命令启动:
uvx langbot
第一次运行时会自动初始化并在浏览器中打开 。

注册后,登录以访问仪表盘:

步骤 2:部署 Langflow
使用 Docker 快速部署:
docker run -d --name langflow -p 7860:7860 langflowai/langflow:latest
访问 以访问 Langflow。

步骤 3:创建 Langflow 工作流
在 Langflow 中,选择 Basic Prompting 模板快速入门:

该模板包含四个基本组件:
- Chat Input – 接收用户消息。
- Prompt – 设置系统指令。
- Language Model – 调用大语言模型生成回复。
- Chat Output – 返回结果。

配置语言模型
点击 Language Model 组件并设置:
- Model Provider – 选择 OpenAI(或其他兼容提供商,如 SiliconFlow、New API)。
- Model Name – 如
gpt-4o-mini或deepseek-chat。 - OpenAI API Key – 输入你的密钥。

提示: 通过修改 Base URL 可使用兼容 OpenAI 的服务。
配置完成后保存工作流。
步骤 4:获取 Langflow API 信息
生成 API 密钥
在 Langflow 右上角菜单中进入 Settings → API Keys:

点击 Create New Key,生成并复制密钥(格式:sk-xxxxxxxxxxxxxxxxxxxxxxxx)。


获取 Flow ID
打开流编辑器;URL 中包含 flow ID:
http://localhost:7860/flow/{flow-id}
记录 {flow-id} 的值。
步骤 5:在 LangBot 中配置 Langflow
在 LangBot 仪表盘,进入 Pipelines 并编辑 ChatPipeline。在 AI 选项卡中:

- 将 Runner 设置为 Langflow API。

-
填写 Langflow 配置字段:
- Base URL –
http://localhost:7860/api/v1/flow - API Key – 第 4 步生成的密钥。
- Flow ID – 之前记录的
{flow-id}。
- Base URL –

保存流水线。LangBot 现在会将所有已配置平台的来信通过 Langflow 工作流进行路由,实现跨多个服务的统一可视化 AI 聊天机器人。