我没有停止使用AI — 我改变了它被允许的地方

发布: (2026年2月6日 GMT+8 01:11)
6 分钟阅读
原文: Dev.to

Source: Dev.to

Overview

当我意识到 AI 对我的思考影响比我预期的更大时,我并没有停止使用它。我也没有“少用”。我做了一件更精确的事:我改变了 AI 可以运行的地点

这种转变——设定 AI 边界——并没有降低生产力,反而恢复了判断力。

The problem wasn’t usage, it was placement

问题不在于使用量,而在于放置位置。

AI 并不是在所有地方都造成问题,而是只在特定时刻出现:在定义问题、安排工作顺序以及做出决定时。

我把 AI 当作是普遍有帮助的。实际上,它的价值完全取决于它进入 流程的哪个环节。一旦我看清这一点,解决方案就从情绪化转向结构化。

AI 不需要限制使用量,只需要限制 权威

I drew a line between thinking and execution

我设定的第一条边界很简单:AI 可以帮助我 执行,但它不能 决定什么是重要的

这意味着:

  • 在定义问题时不让 AI 介入
  • 不让 AI 提出优先级建议
  • 在意图尚未明确前不接受 AI 生成的“下一步”

一旦方向确定,AI 就可以加速后续的所有工作。

这条单一的边界消除了大多数细微的漂移。

Framing became human‑only territory

框定 是塑造结果的阶段——决定包含什么、排除什么、以及哪些被视为固定。

我意识到,当 AI 帮助框定问题时,它会悄悄缩小决策空间。框定看起来合理,我便接受了它——却没有注意到其他选项已经消失。

现在,框定是 仅限人类 的领域。我在 AI 介入之前先定义问题、约束条件和利害关系。仅此改变就显著提升了后续的质量。

AI lost access to commitment moments

另一条边界围绕 承诺。AI 可以提出选项,但它不能参与我做决定的那一刻。

我不再在看到输出后立即作出承诺。相反,我会离开屏幕,用自己的话复述决定。

如果我在没有 AI 在场的情况下无法解释理由,承诺就会被推迟。这条边界让所有权变得毫无疑问。

I allowed AI to be fast where speed is safe

并非所有的速度都是危险的。有些任务本身就受益于纯粹的加速。

我明确允许 AI 在以下方面自由运行:

  • 起草和改写
  • 摘要与综合
  • 格式化与结构

这些领域不决定方向,只是支持方向。这里的速度不会限制思考,而是放大执行。

边界让 AI 能够强大而不具影响力。

The boundaries felt awkward at first

起初,这些规则感觉低效:在输入提示前停顿、抵制顺畅的续写、对 AI 的帮助说“还不行”。

这种不适正是目的所在。它说明 AI 之前一直在填补需要人类判断的空白。

一旦习惯形成,摩擦感消失——清晰度提升。

Boundaries made AI easier to trust

矛盾的是,设定限制让 AI 更值得信赖。我不再担心微妙的影响,因为我清楚它能和不能运行的范围。

AI 变得可预测、可帮助且被约束。

信任并非来自对系统的自信,而是来自对边界的自信。

Control doesn’t come from restriction

我没有停止使用 AI。我停止了让它随意游走。

AI 边界并非出于恐惧或克制,而是有意的放置。当 AI 被允许在其擅长的地方工作,而在需要判断的地方被阻止,一切都会更好。

系统运行更快,思考更强。

责任恰好留在该在的地方——由人类来做决定。学习 AI 不在于了解每一种工具,而在于懂得如何恰当地使用它们。Coursiv 专注于实用、面向工作的 AI 技能,帮助提升思考、工作和成果。

Back to Blog

相关文章

阅读更多 »

当 AI 给你一巴掌

当 AI 给你当头一棒:在 Adama 中调试 Claude 生成的代码。你是否曾让 AI “vibe‑code” 一个复杂功能,却花了数小时调试细微的 bug……