为什么我构建 Heym 而不是扩展 n8n

发布: (2026年4月28日 GMT+8 17:30)
5 分钟阅读
原文: Dev.to

Source: Dev.to

Heym 是一个自托管、源码可用的 AI 工作流自动化平台。它为 AI 工作流所需的一切提供了统一的运行时:代理、检索、审批步骤、可观测性、调度,以及将工作流暴露为可供 AI 助手调用的工具的能力。它通过 Docker Compose 在您自己的基础设施上运行,数据不会离开您的堆栈。

Heym 实际是什么

Heym 提供了一个统一的环境,代理可以进行推理、调用工具、检索文档,并在同一执行流中暂停以供人工审查。它专为 AI 原生工作流设计,区别于 n8n、Zapier 或 Make 等确定性自动化平台。

执行模型

工作流引擎从画布构建有向无环图(DAG),并使用线程池并发运行独立节点。在流式模式下,节点完成时会发出事件,使前端能够实时更新。

  • 代理节点支持完整的工具调用循环:它们可以运行 Python 工具、连接外部 MCP 服务器、委派给子代理,并将其他工作流作为工具调用。
  • 当上下文使用接近模型窗口的 80 % 时,引擎会自动压缩历史,以防长时间运行的代理在任务中途悄然失败。

人机交互(HITL)作为一等原语

AI 输出往往具有真实后果(例如草拟邮件、生成报告、数据转换)。HITL 节点可以在任意时点暂停执行,生成一次性公开审查 URL 并等待。审查者可以:

  • 接受输出
  • 编辑输出
  • 拒绝输出

整个过程无需 Heym 账户。随后执行从精确存储的快照恢复,同一次运行可以多次暂停。这不是权宜之计,而是核心工作流设计原语。

内置知识检索

文档检索是运行时的原生功能,而非外部独立服务。Heym 包含内置向量库管理:

  1. 上传文档
  2. 创建库
  3. 将语义搜索直接接入工作流

整个管道在单个工作流内部运行,并出现在统一的追踪中,消除了对独立系统和调试上下文的需求。

MCP 服务器

每个 Heym 实例都运行内置的 MCP 服务器。您构建的任何工作流都可以暴露为工具,供 Claude Desktop、Cursor 或任何 MCP 客户端直接调用。代理节点也可以连接外部 MCP 服务器作为工具来源,实现双向能力流动。

可观测性

  • Traces 选项卡:自动记录每次执行。
  • Evals 选项卡:让您创建测试套件,并在多个模型上同时运行评估,支持可配置评分。

可观测性是平台的内建特性,而非事后添加。

技术栈

  • 前端:Vue 3 + TypeScript + Vue Flow
  • 后端:Python、FastAPI、async SQLAlchemy
  • 数据库:PostgreSQL 16
  • 部署:Docker Compose 堆栈

当前状态

Heym 目前已发布 v0.0.1,并在积极开发中。源码在 MIT 许可证(附 Commons Clause)下提供。

如果您在构建 AI 工作流时花费的时间多于解决实际问题的时间,欢迎尝试 Heym。

GitHub:

Heym Workflow Canvas

0 浏览
Back to Blog

相关文章

阅读更多 »