如果相同的输入产生不同的结果,那就不是 Decision System

发布: (2025年12月18日 GMT+8 10:09)
4 min read
原文: Dev.to

Source: Dev.to

决策系统 vs 推荐引擎

AI 系统越来越多地被描述为用于决策。
但有一个简单的工程问题常被忽视:

如果相同的输入在重复运行中产生不同的结果,这个系统真的可以称为决策系统吗?

从系统的角度来看,答案是 。推荐系统可以容忍变动,但决策系统不能。

决策的工程需求

  • 可复现性 – 相同输入,产生相同输出
  • 可审计性 – 决策可以被重放并检查
  • 可问责性 – 责任可以被明确分配

如果在相同输入下的多次执行产生不同的结果,这些属性都不成立。系统仍可能有用,但它应该被标记为 咨询系统,而不是决策系统。

非确定性在执行时成为负担

许多 AI 系统通过以下方式为输出的可变性辩解:

  • 随机抽样
  • 概率推理
  • 环境不确定性

这些论点在系统提供建议时是合理的。当输出直接进入执行路径时——建议可以变化,决策则必须保持不变——这些论点就不再成立。一旦系统参与执行,确定性就成为要求,而不是一种优化手段。

严格但简单的准则

给定相同的结构化输入,决策系统必须始终产生完全相同的输出。包括:

  • 选中的项目
  • 排序
  • 阈值
  • 拒绝或 “不通过” 条件

如果这些中的任何一项在不同运行之间会改变,则系统并未在做决策。

该问题是可解的——不是通过让模型更聪明

确定性的决策行为 通过以下方式实现:

  • 更大的模型
  • 更深的推理链
  • 重复抽样或取平均

相反,它是通过 约束模型在决策阶段的行为 实现的。当决策逻辑本身被完全形式化并限定时,非确定性路径在设计上被消除。模型仍然可以解释输入,但不再即兴决定结果。

为什么这一区分很重要

随着 AI 系统越来越接近实际操作权,模糊的定义会变得危险。缺乏确定性会导致:

  • 回测失去意义
  • 审计失败
  • 责任不明确

这不是机器学习的问题,而是工程和治理的问题。

最后思考

如果相同的输入会导致不同的结果,系统可能是智能的——但它 没有 在做决策。
在称一个系统为 “决策系统” 之前,确定性应被视为最低的入门要求。

Back to Blog

相关文章

阅读更多 »