为什么我构建 Heym 而不是扩展 n8n
Source: Dev.to
Heym 是一个自托管、源码可用的 AI 工作流自动化平台。它为 AI 工作流所需的一切提供了统一的运行时:代理、检索、审批步骤、可观测性、调度,以及将工作流暴露为可供 AI 助手调用的工具的能力。它通过 Docker Compose 在您自己的基础设施上运行,数据不会离开您的堆栈。
Heym 实际是什么
Heym 提供了一个统一的环境,代理可以进行推理、调用工具、检索文档,并在同一执行流中暂停以供人工审查。它专为 AI 原生工作流设计,区别于 n8n、Zapier 或 Make 等确定性自动化平台。
执行模型
工作流引擎从画布构建有向无环图(DAG),并使用线程池并发运行独立节点。在流式模式下,节点完成时会发出事件,使前端能够实时更新。
- 代理节点支持完整的工具调用循环:它们可以运行 Python 工具、连接外部 MCP 服务器、委派给子代理,并将其他工作流作为工具调用。
- 当上下文使用接近模型窗口的 80 % 时,引擎会自动压缩历史,以防长时间运行的代理在任务中途悄然失败。
人机交互(HITL)作为一等原语
AI 输出往往具有真实后果(例如草拟邮件、生成报告、数据转换)。HITL 节点可以在任意时点暂停执行,生成一次性公开审查 URL 并等待。审查者可以:
- 接受输出
- 编辑输出
- 拒绝输出
整个过程无需 Heym 账户。随后执行从精确存储的快照恢复,同一次运行可以多次暂停。这不是权宜之计,而是核心工作流设计原语。
内置知识检索
文档检索是运行时的原生功能,而非外部独立服务。Heym 包含内置向量库管理:
- 上传文档
- 创建库
- 将语义搜索直接接入工作流
整个管道在单个工作流内部运行,并出现在统一的追踪中,消除了对独立系统和调试上下文的需求。
MCP 服务器
每个 Heym 实例都运行内置的 MCP 服务器。您构建的任何工作流都可以暴露为工具,供 Claude Desktop、Cursor 或任何 MCP 客户端直接调用。代理节点也可以连接外部 MCP 服务器作为工具来源,实现双向能力流动。
可观测性
- Traces 选项卡:自动记录每次执行。
- Evals 选项卡:让您创建测试套件,并在多个模型上同时运行评估,支持可配置评分。
可观测性是平台的内建特性,而非事后添加。
技术栈
- 前端:Vue 3 + TypeScript + Vue Flow
- 后端:Python、FastAPI、async SQLAlchemy
- 数据库:PostgreSQL 16
- 部署:Docker Compose 堆栈
当前状态
Heym 目前已发布 v0.0.1,并在积极开发中。源码在 MIT 许可证(附 Commons Clause)下提供。
如果您在构建 AI 工作流时花费的时间多于解决实际问题的时间,欢迎尝试 Heym。
GitHub:
