决定论并非智能的对立面
发布: (2025年12月16日 GMT+8 07:43)
3 min read
原文: Dev.to
Source: Dev.to
Introduction
在现代系统中,我们常把非确定性当作一种特性。当某事表现得不可预测时,我们会把它贴上“涌现”或“复杂”的标签。这种框架是错误的。确定性并不是要去除智能,而是要让责任变得可见。
Why Determinism Matters
确定性系统并不意味着“一切都是静态的”。在相同的输入、结构和约束下,系统会以相同的方式运行——或者以一种你能够解释、重现并修复的方式失败。随着系统规模的扩大,这一区别变得愈发重要。
Lessons from Traditional Engineering
在传统工程中,我们已经吃过硬痛的教训:
- 你无法优化你测量不到的东西。
- 你无法重构你无法推理的东西。
- 你无法演进依赖英雄主义的系统。
这也是为什么 IOSM 之类的方法论会出现:它们通过强制确定性行为来提供可预测的演进。
Applying Determinism to AI
同样的教训同样适用于 AI 系统。当大语言模型(LLM)在没有合同、模式或确定执行路径的情况下被嵌入时,我们得到的不是智能,而是看似合理的混乱。模型成为了架构模糊性的便利替罪羊。
FACET as a Contract Layer
这就是 FACET 对我而言的定位——不是“提示工程”,而是一个让系统承担责任的合同层。该模式在各个领域都是一致的:
- IOSM 使系统演进可预测。
- FACET 使 AI 行为可追责。
不同的层次,同样的原则。
Conclusion
确定性并不是为了控制本身。如果一个系统在失败后无法解释自身原因,它就不算智能——它只是脆弱。