如果相同的输入产生不同的结果,那就不是 Decision System
Source: Dev.to
决策系统 vs 推荐引擎
AI 系统越来越多地被描述为用于决策。
但有一个简单的工程问题常被忽视:
如果相同的输入在重复运行中产生不同的结果,这个系统真的可以称为决策系统吗?
从系统的角度来看,答案是 否。推荐系统可以容忍变动,但决策系统不能。
决策的工程需求
- 可复现性 – 相同输入,产生相同输出
- 可审计性 – 决策可以被重放并检查
- 可问责性 – 责任可以被明确分配
如果在相同输入下的多次执行产生不同的结果,这些属性都不成立。系统仍可能有用,但它应该被标记为 咨询系统,而不是决策系统。
非确定性在执行时成为负担
许多 AI 系统通过以下方式为输出的可变性辩解:
- 随机抽样
- 概率推理
- 环境不确定性
这些论点在系统提供建议时是合理的。当输出直接进入执行路径时——建议可以变化,决策则必须保持不变——这些论点就不再成立。一旦系统参与执行,确定性就成为要求,而不是一种优化手段。
严格但简单的准则
给定相同的结构化输入,决策系统必须始终产生完全相同的输出。包括:
- 选中的项目
- 排序
- 阈值
- 拒绝或 “不通过” 条件
如果这些中的任何一项在不同运行之间会改变,则系统并未在做决策。
该问题是可解的——不是通过让模型更聪明
确定性的决策行为 不 通过以下方式实现:
- 更大的模型
- 更深的推理链
- 重复抽样或取平均
相反,它是通过 约束模型在决策阶段的行为 实现的。当决策逻辑本身被完全形式化并限定时,非确定性路径在设计上被消除。模型仍然可以解释输入,但不再即兴决定结果。
为什么这一区分很重要
随着 AI 系统越来越接近实际操作权,模糊的定义会变得危险。缺乏确定性会导致:
- 回测失去意义
- 审计失败
- 责任不明确
这不是机器学习的问题,而是工程和治理的问题。
最后思考
如果相同的输入会导致不同的结果,系统可能是智能的——但它 没有 在做决策。
在称一个系统为 “决策系统” 之前,确定性应被视为最低的入门要求。