宣布 AgentHelm v0.3.0:生产就绪的 AI 代理编排
发布: (2025年12月24日 GMT+8 23:49)
3 min read
原文: Dev.to
Source: Dev.to
引言
经过数月的迭代,我很高兴发布 AgentHelm v0.3.0,这是让 AI 代理进入生产环境的关键一步。
构建 AI 代理很容易。让它们在生产环境中可靠运行却很困难。你需要处理:
- 多步骤执行及失败恢复
- 会话间的记忆持久化
- 成本和 token 追踪
- 可观测性和调试
- 大规模的工具编排
大多数代理框架只关注第一步(让代理工作),却忽视了最后一步(让它可靠运行)。
先计划后执行的方式
AgentHelm 引入了 先计划后执行 的工作流,而不是让代理随意运行:
任务 → 计划生成 → 人工审查 → 执行
- PlannerAgent 生成包含步骤和依赖的结构化计划。
- 你审查该计划。
- Orchestrator 执行计划,并在可能的情况下并行化。
如果执行过程中出现失败,Saga 模式 会触发补偿操作,自动回滚已完成的步骤。
MemoryHub
记忆不再是事后考虑。MemoryHub 提供:
| 类型 | 描述 |
|---|---|
| 短期记忆 | 带 TTL 的键值存储(InMemory、SQLite、Redis) |
| 语义记忆 | 使用 Qdrant 和 FastEmbed 的向量搜索 |
默认零配置,但可以通过 Redis 和网络化的 Qdrant 实例扩展到生产环境。
命令行界面
所有操作都可以通过命令行完成:
# 运行一次性任务
agenthelm run "Analyze this quarter's sales data"
# 生成计划并保存
agenthelm plan "Build a customer support bot" -o plan.yaml
# 对已保存的计划进行干运行
agenthelm execute plan.yaml --dry-run
# 交互式聊天模式
agenthelm chat
# 列出已记录的追踪
agenthelm traces list
每一次工具执行都会被追踪。追踪可以导出到 Jaeger 进行可视化,且成本会在 20 多家 LLM 提供商之间进行内置计价。
AgentHelm 还可以连接 Model Context Protocol 服务器,允许你直接在代理中使用它们的工具。
安装
pip install agenthelm
agenthelm init
agenthelm chat
路线图(v0.4.0)
- 用于追踪可视化的网页仪表盘
- 多代理工作流中的高级冲突解决
- 用于预算和约束强制的策略引擎
- Webhook 集成
开源
AgentHelm 是开源的,欢迎贡献。
文档
GitHub