为什么学习 AI 感觉没有方向(直到你看到秩序)
Source: Dev.to
我以为只要弄懂了提示词,我就能准备好去构建了。
我已经学会了:
- 什么是大语言模型(LLM)
- 变换器(transformers)的工作原理(高层次)
- 为什么提示词很重要
- 结构和约束如何塑造模型行为
这感觉像是进步。
但我并没有获得清晰感,反而更迷茫了。
并不是因为我需要更多概念——而是因为我不明白它们之间是如何关联的。
🤯 Nobody谈论的奇怪中间阶段
我已经不再是新手了。
新手教程让人觉得重复。
但我也没有足够的信心继续前进。
我记得曾向几个朋友请教接下来该做什么。
他们很合理地说:“只要做项目就行。”
说实话,他们并没有错。这在普通开发中是很稳妥的建议。
可是当我尝试自己突破提示(prompting)时,我卡住了。
不是因为它很难。
而是我不知道从哪里开始。
我的脑中没有任何流程。
作为一名前端开发者,我习惯按有逻辑的顺序学习:
UI → 状态 → API → 数据库。
而在 AI 领域,一切似乎都在漂浮。
🧩 真正的困惑
当我尝试自行应用所学时,困惑更加微妙。
我知道 RAG 是什么。
我在高层次上理解了整个流水线。
我甚至跟着教程做过小型演示。
但当我尝试独立思考时,问题接踵而来:
- 我知道 RAG 会检索上下文——但检索内部到底发生了什么?
- 什么是 chunking(分块),它在何时重要?
- 是否涉及算法,还是仅仅是“嵌入并搜索”?
- 我需要深入到什么程度才能说自己真的理解了它?
提示之后接下来是什么——我需要多少这方面的内容?
我不只是需要定义。我需要结构。
我还需要知道每一层的深度。
我不需要更多的主题。我需要的是对接下来该做什么的清晰指引——以及该深入到何种程度。
那是转折点。
🧭 前端学习的真实路径
在前端领域,进阶很少是随机的。
没有人在理解 HTML 和 JavaScript 之前就直接开始使用 React。
学习通常会自然地这样进行:
HTML ➡️ CSS ➡️ JavaScript ➡️ React ➡️ Next.js
因为 React 依赖于 JavaScript,而只有在弄懂了 DOM 的工作原理后,JavaScript 才有意义。
每一步都建立在前一步的基础上。
这并非随机——它们是相互关联的。
而正是这种 关联让学习感觉更有结构。
🔗 在 AI 中看到相同的模式
在使用 AI 时,我最初只看到孤立的主题:
- 提示
- RAG
- 代理
- 微调
- 向量数据库
- 框架
没有明显的进展。
但当我开始询问 这些想法是如何相互依赖的 时,情况变得更清晰。
流程看起来更像这样:
提示 → 结构化输出 → 嵌入 → 检索 → RAG → 工具调用 → 代理 → 评估
这不是流行词,而是相互依赖的能力。
🧠 这一路径实际意味着什么
1️⃣ 提示
起点。了解:
- 大型语言模型的行为方式
- 指令如何影响输出
- 约束和示例如何塑造输出
- 上下文如何影响答案
没有这层基础,其他一切都没有意义。
2️⃣ 结构化输出
从自由文本转向可预测的格式:
- JSON 架构
- 确定性格式化
- 输出验证
这很重要,因为工具和自动化依赖可预测的输出。
3️⃣ 嵌入向量
当相似度成为核心问题时,嵌入向量将文本转化为向量,使意义可度量、相似度可计算。
- 文本 → 向量
- 意义 → 可度量
- 相似度 → 可计算
这为检索提供了可能。
4️⃣ 检索
通过可度量的相似度,可以有意地获取上下文。重点关注:
- 文档切分
- Top‑k 检索
- 将上下文注入提示
当知识在模型外部时,仅靠提示不足以满足需求,检索因此而生。
5️⃣ RAG(检索增强生成)
RAG = 提示 + 检索 + 上下文管理。
外部知识成为模型推理的一部分,将抽象的片段转化为可运行的系统。
6️⃣ 工具调用
模型现在可以触发动作,依赖于结构化输出,例如:
- 函数架构
- 动作选择
- API 执行
结构化成为语言与行为之间的桥梁。
7️⃣ 代理
迭代的工具使用催生了代理。关注点转向:
- 规划
- 行动
- 观察
- 多步推理
- 状态管理
代理建立在提示、检索和工具使用之上,而不是取代它们。
8️⃣ 保护措施与评估
有了系统后,可靠性至关重要。关注点转向:
- 测试输出
- 监控行为
- 成本优化
- 幻觉控制
这正是实验转化为工程化规范的阶段。
💡 我的思维有什么变化
最大的转变不是学到了新东西,而是清晰地看到了顺序。
一旦我看到了流程,就不再感到必须一次性学会所有东西的压力。
- 如果我理解了提示(prompting),下一个自然步骤就是结构化输出。
- 如果我理解了结构,嵌入(embeddings)就更有意义了。
- 然后是检索(retrieval),再是 RAG。
问题没有改变,但路径变得可见,消除了大部分摩擦。
🌱 要点
AI 并不是因为混乱而感到没有方向。
它感到没有方向是因为 我看不见其中的秩序。
一旦这点变得清晰,我就不再试图一次性学会所有东西。
这种清晰并没有给我所有答案,但 它给了我方向 —— 这已经足以让我继续前进。