为人类写作已不再足够。为 AI 写作已成为工作的一部分

发布: (2026年2月13日 GMT+8 00:33)
7 分钟阅读
原文: Dev.to

Source: Dev.to

为人类写作已不再足够。为 AI 写作现在是工作的一部分的封面图片

介绍

当我的公司将 AI 助手集成到我们的文档平台时,我是被选中进行早期测试的团队之一。目标是通过使用我们现有的文档作为唯一可信来源,看看 AI 能否准确回答真实用户的问题。

我没想到的是,这次实验会在多大程度上改变我对技术写作的看法。

这不仅仅关乎 AI 的准确性,更涉及文档在被大型语言模型(LLM)消费时本身的表现方式。

LLM 并非确定性的,这并不是一个 bug

在测试 AI 助手时,我首先注意到的一件事是,它有时会对同一个问题给出不同的答案,即使提问完全相同、使用相同的文档、相同的向量数据库检索,以及相同的底层模型在运行。

起初,这看起来像是可靠性问题。实际上,它揭示了一个重要事实:LLM 是概率性的,而非确定性的。它们的回答取决于查询的表述、检索到的上下文、标记的概率以及语义相似度搜索。如果检索到的内容模糊、信息量少或范围界定不清,答案就会出现差异。

极简写作对人类有效,但并不总是对 AI 有效

我们的文档采用了简洁、极简的写作风格。它针对人类读者进行了优化,页面短小,文字更少,解释更少。

但 AI 在这方面遇到了困难。

为什么? 因为极简文档往往缺少明确的主题意图、清晰的产品边界、消歧义的上下文以及简短的摘要来说明页面的真实内容。人类可以凭经验推断意义,而大型语言模型却做不到。

常见术语比你想象的更容易让 AI 混淆

一个反复出现的问题源于产品之间共享的术语。像 virtual serverinstancenodeenvironment 这样的词在我们生态系统的多个产品中都有出现。

当用户询问“如何创建 virtual server?”时,AI 有时会从错误的产品中提取步骤,仅仅因为多个页面使用了相同的措辞,而这些页面并未明确说明它们所属的产品。

AI 并没有产生幻觉,它只是在检索有效但不相关的内容。

The fix was surprisingly simple: add more context

我们在选定的页面上进行了一项小实验。我们在每页开头添加了简明的描述,为所有主题和子主题引入了简短的摘要,增强了步骤级别的说明以提升清晰度,并减少了不必要的交叉引用。

Result: AI 答案变得更准确,搜索相关性提升,混合产品的响应减少,用户对 AI 生成的答案产生了更高的信任。在看到改进效果后,我们将这种做法推广到更多的文档集合中。

交叉引用可能会影响 AI 检索

过多的交叉引用会增加 AI 的困惑。当页面大量引用其他主题时,AI 有时会从链接的页面生成答案,而不是主主题,混合部分步骤,并且失去上下文。

我们通过仅在必要时使用交叉引用、保持主要工作流自包含以及避免循环链接来调整了方法。这减少了检索噪音并提升了答案的一致性。

对技术写作者的意义

技术写作者不再只为人类写作。我们还在为 AI 系统设计知识,减少机器检索的歧义,并定义可信 AI 回答的方式。

好的 AI 回答并不是从更好的模型开始的,而是从更好的文档开始的。

AI‑就绪文档的实用写作技巧

  • 为每个主题添加简短、明确的描述。
  • 在页面开头明确说明产品范围。
  • 避免假设读者(或 AI)了解上下文。
  • 对跨产品使用的常见术语进行消歧义。
  • 在极简流程与有意义的上下文之间取得平衡。
  • 减少不必要的交叉引用。
  • 将主题介绍写成“检索锚点”。

最终思考

LLM 并不会取代技术写作者。它们提升了我们所创建文档的质量。

当文档清晰、范围明确且有意图时,AI 成为强大的助手。当文档不满足这些条件时,AI 只会反映出内容中已有的混乱。

0 浏览
Back to Blog

相关文章

阅读更多 »

KAIzen — AI 时代对敏捷的需求

一家游戏公司的小团队如何将流效率从 32% 提升到 85%——通过改变我们提供给 AI 的内容。我们的团队严格遵循 Scrum:两周的 s...