为人类写作已不再足够。为 AI 写作已成为工作的一部分
Source: Dev.to

介绍
当我的公司将 AI 助手集成到我们的文档平台时,我是被选中进行早期测试的团队之一。目标是通过使用我们现有的文档作为唯一可信来源,看看 AI 能否准确回答真实用户的问题。
我没想到的是,这次实验会在多大程度上改变我对技术写作的看法。
这不仅仅关乎 AI 的准确性,更涉及文档在被大型语言模型(LLM)消费时本身的表现方式。
LLM 并非确定性的,这并不是一个 bug
在测试 AI 助手时,我首先注意到的一件事是,它有时会对同一个问题给出不同的答案,即使提问完全相同、使用相同的文档、相同的向量数据库检索,以及相同的底层模型在运行。
起初,这看起来像是可靠性问题。实际上,它揭示了一个重要事实:LLM 是概率性的,而非确定性的。它们的回答取决于查询的表述、检索到的上下文、标记的概率以及语义相似度搜索。如果检索到的内容模糊、信息量少或范围界定不清,答案就会出现差异。
极简写作对人类有效,但并不总是对 AI 有效
我们的文档采用了简洁、极简的写作风格。它针对人类读者进行了优化,页面短小,文字更少,解释更少。
但 AI 在这方面遇到了困难。
为什么? 因为极简文档往往缺少明确的主题意图、清晰的产品边界、消歧义的上下文以及简短的摘要来说明页面的真实内容。人类可以凭经验推断意义,而大型语言模型却做不到。
常见术语比你想象的更容易让 AI 混淆
一个反复出现的问题源于产品之间共享的术语。像 virtual server、instance、node 和 environment 这样的词在我们生态系统的多个产品中都有出现。
当用户询问“如何创建 virtual server?”时,AI 有时会从错误的产品中提取步骤,仅仅因为多个页面使用了相同的措辞,而这些页面并未明确说明它们所属的产品。
AI 并没有产生幻觉,它只是在检索有效但不相关的内容。
The fix was surprisingly simple: add more context
我们在选定的页面上进行了一项小实验。我们在每页开头添加了简明的描述,为所有主题和子主题引入了简短的摘要,增强了步骤级别的说明以提升清晰度,并减少了不必要的交叉引用。
Result: AI 答案变得更准确,搜索相关性提升,混合产品的响应减少,用户对 AI 生成的答案产生了更高的信任。在看到改进效果后,我们将这种做法推广到更多的文档集合中。
交叉引用可能会影响 AI 检索
过多的交叉引用会增加 AI 的困惑。当页面大量引用其他主题时,AI 有时会从链接的页面生成答案,而不是主主题,混合部分步骤,并且失去上下文。
我们通过仅在必要时使用交叉引用、保持主要工作流自包含以及避免循环链接来调整了方法。这减少了检索噪音并提升了答案的一致性。
对技术写作者的意义
技术写作者不再只为人类写作。我们还在为 AI 系统设计知识,减少机器检索的歧义,并定义可信 AI 回答的方式。
好的 AI 回答并不是从更好的模型开始的,而是从更好的文档开始的。
AI‑就绪文档的实用写作技巧
- 为每个主题添加简短、明确的描述。
- 在页面开头明确说明产品范围。
- 避免假设读者(或 AI)了解上下文。
- 对跨产品使用的常见术语进行消歧义。
- 在极简流程与有意义的上下文之间取得平衡。
- 减少不必要的交叉引用。
- 将主题介绍写成“检索锚点”。
最终思考
LLM 并不会取代技术写作者。它们提升了我们所创建文档的质量。
当文档清晰、范围明确且有意图时,AI 成为强大的助手。当文档不满足这些条件时,AI 只会反映出内容中已有的混乱。