AI 不会取代开发者——但我们已经在把思考外包了

发布: (2026年2月2日 GMT+8 01:04)
18 min read
原文: Dev.to

Source: Dev.to

我在调试一个 React 组件时,遇到了一个我以前已经解决过数十次的状态管理问题。那种可以通过追踪数据流并思考渲染周期来修复的问题。

我没有自己推理,而是打开了 ChatGPT,粘贴错误信息,稍微修改了一下建议,再次粘贴。十分钟后,我仍在原地打转。

于是我停下来,关闭标签页,真正去阅读自己的代码。两分钟内我找到了问题所在:useEffect 依赖数组中的一个陈旧闭包——这是我非常熟悉的模式。如果我先相信自己的思考能力,这个问题本可以立刻解决。

那一刻让我印象深刻。并不是因为 AI 失灵,而是因为我在尝试之前就已经 求助于它。一路走来,我的本能已经从“让我先想想”转变为“让我先问”。

我并没有因为 AI 而失去工作。我失去的,是更难量化的东西:在提问之前先思考的习惯。

循环叙事

每隔几个月,就会有新的标题宣称 AI 将取代软件开发者。时间表各不相同——六个月、两年、五年——但故事始终如一:机器会写代码,而人类将变得多余。

这并不新鲜。我们以前也听过类似的说法。

  • 计算器 → 人们担心数学家会消失 → 数学家转而攻克更难的问题。
  • 编译器 → 取代汇编语言 → 程序员构建了更宏大的系统。
  • IDE 自动补全和重构工具 → 并未让工程师失业 → 他们的交付速度更快。

模式: 自动化机械工作的工具,让人类能够专注于判断、设计以及充满上下文的复杂问题。计算器没有取代数学家的思维;它取代了那部分从来就不有趣的繁琐算术。

从机械自动化到认知自动化

AI遵循相同的轨迹,但有一个关键区别:

  • 以前的工具 → 自动化机械任务。
  • AI → 自动化认知任务。

这种转变改变了我们可能失去的事物的性质。

优秀的工程师将变得有价值

  • 架构系统。
  • 理解业务背景。
  • 做出权衡决策。
  • 验证正确性。

这些技能在与AI辅助结合时会相互叠加。思维清晰并将AI作为杠杆的开发者,能够完成以前需要整个团队才能完成的工作。

那个令人不安的真相

并非所有人都能成为那样的开发者。有些人会让工具完全代替思考,而真正的风险正来源于此。

认知懒惰

在知识工作中正发生一些微妙的变化。它并不够轰动以至于登上头条,但它正在重塑人们与自己思维的互动方式。

  • 代码审查: 开发者无法解释自己的 PR,因为他们并没有编写代码——他们接受了建议。
  • 产品会议: 经理们将客户反馈粘贴到 AI 中,并在未阅读原文的情况下呈现摘要。
  • 设计讨论: “我们直接问 Claude 吧”取代了实际辩论中那种混乱却富有成效的摩擦。

我们正在 在亲自尝试之前就把推理委托出去

这并不是传统意义上的懒惰。这些人勤奋且聪明。AI 引入了一种新的认知捷径:为什么要在问题上苦苦挣扎,而你可以立即得到答案呢?

事实证明,挣扎 本身就是意义所在

  • 手动追踪代码可以构建思维模型。
  • 阅读原始客户反馈可以培养直觉。
  • 通过争论设计决策可以揭示假设和摘要无法捕捉的边缘情况。

认知努力并不是要被优化掉的低效;它是理解形成的方式。

每一次小的委托看似合理,但经过数月乃至数年的累积,其效果是一种萎缩。推理的肌肉因缺乏使用而变得薄弱,而不同于身体的萎缩,这种情况我们常常没有察觉。

AI 实际取代的内容

  • 低效。
    • 可以在几秒钟内生成的模板代码。
    • 可预测的报告格式。
    • 现在由聊天机器人处理的重复性支持答案。

这就是 进步,而非悲剧。

什么是 AI 无法取代的

  • 在模糊情境中的判断。
    • 产品直觉,知道何时某个功能会让用户困惑,即使经过了良好的测试。
    • 工程智慧,选择平凡、可靠的技术用于关键系统。
    • 领导力,驾驭团队动态和组织政治。

最容易受到威胁的工作是那些已经很浅显的——由流程而非判断定义的角色,由执行而非决策驱动的工作。如果你的工作可以完全用提示来指定,那么它本来就是机械的;只是职位名称还没跟上而已。

AI 作为杠杆

对其他人来说,AI 是一种杠杆。而杠杆会让强者更强。

重新定义智能

在人类历史的大部分时期,聪明意味着 了解事物。记忆很有价值。能够回忆事实、引用先例并参考细节的人拥有优势。

这种优势已经消失。任何拥有手机的人都能获取比任何人记忆更多的信息。现在,任何使用 AI 的人都可以 合成这些信息,速度快于任何人类的处理能力。

那么智能现在意味着什么?

  1. 提出更好的问题。

    • AI 输出的质量完全取决于人类输入的质量。
    • 模糊的提示 → 模糊的结果。
    • 一个明确的提示,框定问题、指定约束并预见边缘情况 → 真正有用的输出。
  2. 系统思维。

    • 了解各组件如何交互、AI 的定位以及何时需要人类判断介入。

这项技能不是获取答案,而是知道 该问什么 以及 如何根据答案采取行动

结论

AI 正在消除知识工作中低效的部分,让我们能够专注于真正增值的需要判断的部分。危险在于让 AI 的便利侵蚀我们自己的推理能力。

如果我们保持先思考的习惯——使用 AI 作为工具,而不是拐杖——我们将成为更强大的工程师、产品人员和领袖。未来不是 AI 替代我们,而是 AI 放大我们已经具备的最佳能力。

本地优化

它可以改进函数、起草文档、分析数据集。但它不理解各部分之间的关联。能够看出一个服务的变更如何影响另外三个服务、并理解技术决策的二阶效应的开发者——这种视角是不可替代的。

Source:

上下文工程

这是一门新兴学科,旨在设计 AI 系统可以访问的信息以及访问的时机。

  • AI 输出的质量完全取决于你提供的上下文。
  • 模糊的提示会产生模糊的结果;结构良好、包含相关代码、约束和模式的上下文则会产生真正有用的输出。
  • 这项技能正成为构建 AI 驱动系统的开发者的基础能力。

如果你想深入了解,我的朋友写了一本极好的实用指南:Context Engineering: Designing AI Systems That Actually Understand Your Codebase

验证与评估

AI 会自信地输出结果,无论其正确性如何。它并不知道自己不知道的东西。

  • 能够评估答案是否正确、捕捉细微错误、知道何时信任以及何时验证的专业人士——这种判断力将成为关键技能。

结合多种工具

AI 是众多工具之一。

  • 那些了解 何时 使用 AI、何时 搜索、何时 向同事请教、何时 进行实验、何时 静坐思考的知识工作者——这种编排本身就是一种智能。

这些都不是自动化的。它们比以往任何时候都更有价值。

如果 AI 处理机械性工作,你应该专注什么?

1. 系统架构与权衡

  • AI 能写代码,但在系统架构上仍显吃力。
  • 重点在于理解组件在大规模下的交互方式、在一致性、可用性和分区容错之间的权衡、何时选择成熟技术而非新工具,以及数据库设计、缓存策略和故障模式。

2. 调试与基础

  • 当 AI 生成的代码出错时,你需要进行调试。
  • 这要求对实际发生的事情有深刻把握——例如,JavaScript 事件循环的工作原理(而不仅仅是 async/await 的用法)、内存管理、性能影响、网络基础以及框架底层的运行机制。

基础不会过时;当所有人都跳过它们时,它们反而更有价值。

3. 关键审查与质量保证

  • AI 经常自信地输出胡言乱语。
  • 通过带有批判性眼光的代码审查、编写真正验证行为的测试、保持安全意识(AI 不会考虑攻击向量)以及进行性能分析来捕获这些问题。

4. 提问方式与产品思维

  • AI 能回答问题;人类必须提出正确的问题。
  • 将模糊的业务需求转化为技术需求,将复杂问题拆解为可解决的子任务,辨别实际需求与表面陈述的区别,并识别何时通过 构建东西来更好地解决问题。

5. 检索增强生成(RAG)与上下文管理

  • 知道如何对文档进行切块、选择嵌入模型以及检索相关上下文。
  • 管理记忆系统、工具编排和上下文窗口限制。

6. 领域知识

  • AI 是通用的;领域知识是具体的。
  • 深入了解你的用户,熟悉行业法规和约束,并培养对在特定情境下哪些方案可行、哪些不可行的直觉。
  • 示例:懂得支付流程的金融科技开发者,胜过使用更好提示的通用型开发者。

7. 工具敏捷性

  • 工具会变更,而学习新工具的能力不会。
  • 高效阅读文档,构建小项目验证理解,判断何时已学足够、何时需要更深入,保持好奇但不盲目追逐每个趋势。

8. 人际互动与领导力

  • AI 处理的例行工作越多,人际互动就越重要。
  • 指导新人、建设性地处理分歧、与团队成员和利益相关者建立信任、给予和接受反馈。这些不会随 AI 扩展,而是随你个人的成长而扩展。

简单框架

经常自问: “如果 AI 能完成我今天所做的一切,我还需要擅长什么?”

答案就是你的优先事项清单。

保持敏锐

  • 这听起来显而易见,但需要主动努力。
  • 默认路径是 认知漂移:AI 让人容易跳过思考步骤,如果没有有意识的抵制,这会成为习惯。

设计你自己的思考系统

  1. 有意识地选择何时使用 AI,何时独立推理。
  2. 保护时间用于构建心理模型的深度工作。
  3. 把 AI 当作验证工具,而不是思考的替代品。

风险:成为“AI 操作员”

  • 了解如何有效提示,但已经失去了使提示有意义的基础专业知识的人。
  • AI 操作员可以生成看似正确的输出,却无法评估其是否真的正确,这使他们变得脆弱且过度依赖工具。

替代方案:将 AI 用作放大器

  1. 从自己的思考开始 – 形成假设,草拟方案。
  2. 然后使用 AI 对其进行压力测试、扩展或加速。
  3. 顺序很重要 – 先思考可以保持认知参与,从而培养专业能力。

结束语

  • 这并不是在排斥 AI。我每天都在使用这些工具;它们让我更高效。
  • 我会注意自己在动脑思考之前是否已经去寻找提示——并努力及时提醒自己。

AI 不会取代开发者或知识工作者。

  • 经济层面不支持,技术也尚未成熟,而有价值的工作本质上需要人类的判断、创造力和深厚的专业知识。

真正的担忧

在难以自动化的方式上进行判断。
但这并不是核心担忧。

真正的担忧在于我们会自愿放弃使我们有价值的思考——不是因为被迫,而是因为更容易。千种便利导致的死亡。

AI 放大了已有的认知习惯。

  • 对于好奇的、严谨的、深度投入的——它是一种超能力。
  • 对于那些已经靠模式匹配和浅层执行敷衍了事的人——它会暴露出差距。

问题不在于 AI 是否会取代你的工作。问题在于你是否仍然是那种能够深入思考、从事有意义工作的人员。

把 AI 当作杠杆,而不是拐杖。
保护你的推理能力。坚持在艰难问题的领域。工具会不断进步,确保你也跟上。

您的体验

你的体验是什么?自从 AI 工具成为工作流程的一部分后,你是否注意到自己的思考方式有所变化?我真诚地想听听——请在下方留言。

Back to Blog

相关文章

阅读更多 »