AI 泡沫:我为何在 2026 年前退出

发布: (2025年12月22日 GMT+8 08:14)
6 min read
原文: Dev.to

Source: Dev.to

《AI 泡沫》封面图:我为何在 2026 年前退出

介绍

AI 已经到来,随着我跨过 2025 年的门槛,大家都意识到 AI 在阅读邮件、整理邮件、撰写信件以及生成图像等任务上表现出色。我使用 AI 为我的博客制作了图片,效果令人印象深刻。想想看,保持我的创作模式是件好事。

那么,既然热潮仍在,争夺最佳 AI 的竞争仍在进行,模型也在不断改进,为什么我在 2026 年仍想逃离 AI 呢?尤其是在有新闻称通用人工智能(AGI)可能在 2030 年出现的背景下,这种想法显得尤为反直觉。

一切都始于思考幻觉。我阅读了那篇论文,感觉其中有些东西与我产生了共鸣。随后我又阅读了《思考幻觉的幻觉》,它持相反立场,解释了为何 Apple 的论文让人感觉不对劲以及他们在研究中犯了哪些错误。这两篇论文在理解 AI 的关键点方面都非常非凡。

系统的真实真相

在阅读了《The Art of Doing Science and Engineering: Learning to Learn》(https://a.co/d/03IL51Z?ref=blog.cargdev.io)并亲自构建了一个 LLM 原型 之后,我意识到这种模式依然十分明显:我们拥有的超大模型基本上遵循同一种模式——根据提示连接点,并基于用户所寻找的最可能答案生成最可信的想法。

因此,如果我向任何 LLM 提问:

What is the command to display where my folders are mounted

我会得到如下答案:

prompt answer

这确实是正确的,并且省去了我去 Google 搜索的时间。然而,这里存在一个悖论:它制造了一种我会使用终端的幻象——也许我真的会——但它也可能让人产生一种我理解了实际上并未真正领会的东西的错觉。我并不是说我们应该记住每一个命令。

想象一下,一个不会编码的人构建的应用程序。将软件工程师的需求转化为代码并不仅仅是写几行代码,而是建模、理解与执行的协同过程。

这条路被忽视了

在此时,我已经清楚为什么我要摆脱把 LLM 当作拐杖的做法。我觉得自己需要买点东西,才能超级快速并且通过付费变得聪明来获得生产力的感觉。我们正在购买思考的能力,或者至少看起来是这样。

这让人想起 20 年前以及如今的电子游戏文化:你买最好的皮肤,而不是展示技巧。于是我们展示的是谁更富有,而不是谁更有能力。

tweet

那种虽然并不真正卓越却感到自己非凡的感觉是真实的,但我们必须记住,这些产品是由需要创收的公司维护的。我们应该思考如何利用新技术,以最大化其对我们自身的优势。

我的2026会是怎样的

我不会完全停止使用 AI 工具,但也不会在学习和实践它们上花费过多金钱。构建了自己的大语言模型后,我觉得自己能够更好地理解 AI 的工作原理,摆脱炒作的干扰。

我会遵循自己的学习模式。仍然会在熟悉语言的情况下使用 AI 来帮助编码,但目标是自己动手写代码。如果忘记了某个指令,我可以向大语言模型请教或在 Google 上查询,然后记在笔记本里以巩固学习。

当需要撰写有价值的内容或表达想法时,我会先自行起草,然后仅使用大语言模型来纠正语法和一致性,而不是让它生成整篇文章。这种做法让我保持对材料的参与感,同时仍能受益于 AI 的帮助。

Back to Blog

相关文章

阅读更多 »