当你给 AI Agent Root 权限时会发生什么?
Source: Dev.to
为什么我创建 Cordum
我对 AI 代理痴迷——不是聊天机器人,而是能够实际执行任务的代理:
- 合并 Pull Request
- 部署到 Kubernetes
- 更新数据库记录
- 代表你发送 Slack 消息
技术已经成熟,但每次我尝试将其投入生产时,都会出现同样的情况:
安全团队说不。
说实话?他们说得对。
让 AI 在没有审计日志、审批工作流或可执行政策的情况下直接写入生产系统,就像给实习生 root 权限然后寄望于奇迹。团队往往陷入我所谓的**“PoC 炼狱”**——令人印象深刻的演示却因为缺乏治理方案而永远无法上线。
如果每一次 AI 行动都必须先通过政策检查才能执行,会怎样?
这就是 Cordet 的核心理念。
架构
┌─────────────┐ ┌──────────────┐ ┌─────────────┐
│ AI Agent │ --> │ Safety Kernel │ --> │ Action │
└─────────────┘ └──────────────┘ └─────────────┘
│
┌──────┴──────┐
│ Policy │
│ (as code) │
└─────────────┘
在 任何 作业执行之前,安全内核会评估你的策略并返回以下之一:
- ✅ 允许 – 正常进行
- ❌ 拒绝 – 阻止并给出原因
- 👤 需要批准 – 人工介入
- ⏳ 限流 – 速率限制
示例策略 (policy.yaml)
rules:
- id: require-approval-for-prod
match:
risk_tags: [prod, write]
decision: require_approval
reason: "Production writes need human approval"
- id: block-destructive
match:
capabilities: [delete, drop, destroy]
decision: deny
reason: "Destructive operations not allowed"
- id: allow-read-only
match:
risk_tags: [read]
decision: allow
当代理尝试危险操作时,Cordet 会介入:
{
"job_id": "job_abc123",
"decision": "require_approval",
"reason": "Production writes need human approval",
"matched_rule": "require-approval-for-prod"
}
该作业会在仪表盘中等待,直至有人批准 —— 完整审计日志,符合合规要求。
控制平面(不是代理框架)
Cordet 协调并管理代理;它 不 替代 LangChain、CrewAI 等。
┌─────────────────────────────────────────────────────────┐
│ Cordet Control Plane │
├─────────────────────────────────────────────────────────┤
│ ┌───────────┐ ┌──────────────┐ ┌─────────────────┐ │
│ │ Scheduler │ │ Safety Kernel │ │ Workflow Engine │ │
│ └───────────┘ └──────────────┘ └─────────────────┘ │
├─────────────────────────────────────────────────────────┤
│ ┌───────────────┐ ┌───────────────────────────────┐ │
│ │ NATS Bus │ │ Redis (State) │ │
│ └───────────────┘ └───────────────────────────────┘ │
└─────────────────────────────────────────────────────────┘
│ │ │
┌────┴────┐ ┌────┴────┐ ┌───┴────┐
│ Worker │ │ Worker │ │ Worker │
│ (Slack) │ │ (GitHub)│ │ (K8s) │
└─────────┘ └─────────┘ └────────┘
技术栈
| 组件 | 技术 |
|---|---|
| 核心控制平面 | Go (~15 K 行) |
| 消息总线 | NATS JetStream(至少一次投递) |
| 状态存储 | Redis |
| 仪表盘 | React(实时更新) |
性能
dashboard– 那就是你的仪表盘。
更大的图景
我最初把治理视为合规的“必要之恶”。现在我把它视为一个 feature。当你能够证明每一次 AI 行动都已依据政策进行评估并记录时,你就能开启以前不可能的使用场景:
- Banks 可以安全地使用 AI 代理。
- Healthcare 可以自信地采用 AI 代理。
“写入权限” 成为竞争优势。
Open‑Source, Not SaaS
我本可以从第一天起就把它做成闭源 SaaS,但开源:
- 建立信任(你可以检查代码)
- 鼓励社区贡献
- 让任何人都能在内部运行控制平面
Cordet – 开源 AI 代理框架
- 支持自托管 – 企业喜欢能够在本地运行的能力。
- 社区渠道 – 鼓励贡献和生态系统的成长。
- 开源核心商业模式
- 自托管版本:永久免费。
- 云/企业功能:付费计划。
路线图
- 用于 Kubernetes 部署的 Helm Chart。
- Cordet Cloud – 完全托管的 SaaS 服务。
- 集成到仪表盘的可视化工作流编辑器。
- 其他集成包(AWS、GCP、PagerDuty 等)。
快速链接
- 🌐 网站:
- 📦 GitHub:
- 📋 协议(CAP):
- 📚 文档:
如果你正在构建 AI 代理并需要内置治理,试试 Cordet 吧。
⭐ 给仓库加星 如果你觉得它有用!
我很想听取你的反馈——还有哪些缺失?什么能让它对你的项目更有帮助?
感谢阅读!我很乐意在评论中回答任何问题。