RAG 是如何工作的...
发布: (2026年1月3日 GMT+8 17:49)
3 min read
原文: Dev.to
Source: Dev.to
什么是检索增强生成(RAG)?
如果你一直在关注 AI 领域,你一定听过流行词 RAG(Retrieval‑Augmented Generation,检索增强生成)。它听起来很复杂,但本质上是一种让 AI 在真实场景中更有用的方法。
可以把它想象成 AI 模型的“开卷”考试:
- 标准 LLM – 模型只能凭记忆作答,这可能导致细节遗忘或出现幻觉。
- RAG – 模型可以在查询时查阅参考资料(例如教材),检索到所需的确切段落,然后基于这些信息作答。
RAG 的工作原理
RAG 可以拆分为三个简单步骤:
1. 检索(搜索)
当提出问题(例如“我们公司的请假政策是什么?”)时,系统首先在私有知识库——PDF、文档、电子邮件等——中搜索相关段落。查询 不会 直接发送给语言模型。
2. 增强(上下文)
检索到的段落会与原始问题合并,形成提示。示例提示:
Using these notes [paste notes here], answer this question: What is the leave policy?
3. 生成(答案)
像 GPT‑4 或 Claude 这样的语言模型读取增强后的提示,并 仅 基于提供的上下文生成答案。
RAG 的优势
- 可信度 – 由于答案基于检索到的文档,模型出现幻觉的可能性更小。
- 时效性 – 在知识库中更新文档即可让 AI 立即获取新信息,无需昂贵的重新训练。
- 效率 – 当源材料变化时,你无需反复对大型模型进行重新训练,从而节省成本。
为什么 RAG 很重要
RAG 常被称为 AI 工程的 “Hello World”。它标志着从单纯使用 AI 到成为能够将 AI 与专有数据集成的构建者的转变,能够交付准确、最新且可信的结果。