大型语言模型(如ChatGPT)实际工作原理(实用开发者指南)

发布: (2025年12月17日 GMT+8 00:57)
4 min read
原文: Dev.to

Source: Dev.to

🔍 LLM 真正是什么?

从本质上讲,LLM 是一个下一个 token 预测系统。

给定一系列 token(单词或词片),模型会预测最可能的下一个 token——不断重复——直到生成答案。

  • 没有推理引擎。
  • 没有记忆。
  • 没有人类意义上的理解。

只有从海量数据中学习到的概率分布。

🧠 预训练:学习语言模式

LLM 在巨大的文本语料库(网页、书籍、文档和代码)上进行预训练。
训练目标很简单:尽可能准确地预测下一个 token

通过此过程,模型学习到:

  • 语法和句法
  • 语义关系
  • 常见事实和模式
  • 代码、数学和自然语言的结构

这使得 LLM 成为优秀的模式识别器,而非真理引擎。

🏗 基础模型 vs 指令模型

基础模型

  • 能完成文本生成
  • 并不可靠地遵循指令
  • 没有帮助性的概念

指令模型

  • 在指令‑响应数据集上进行微调
  • 学会回答问题并执行任务
  • 更像一个助理

这就是为什么 ChatGPT 与原始 GPT 模型感觉截然不同。

🎯 对齐与 RLHF

为了让模型更有用且安全,会采用诸如 Reinforcement Learning from Human Feedback (RLHF) 的对齐技术。

流程(简化版)

  1. 人类对模型输出进行排序。
  2. 奖励模型学习偏好。
  3. 主模型被优化以产生更高质量的答案。

这提升了清晰度、语气和安全性——但也会带来如过度谨慎的权衡。

🧩 提示、上下文与记忆幻觉

每次交互都包含:

  • 系统指令
  • 用户提示
  • 有限的上下文窗口

模型:

  • 没有长期记忆
  • 只能“记住”在上下文窗口内的内容
  • 逐 token 生成响应

一旦上下文消失,记忆也随之消失。

⚠️ 为什么 LLM 会产生幻觉

幻觉产生的原因是:

  • 模型优化的是看似合理的文本,而非事实
  • 缺失或模糊的数据会被填充为最可能的模式
  • 没有内置的事实验证机制

这也是在生产系统中采用 grounding 技术的重要原因。

🛠 生产系统如何提升准确性

实际的 AI 系统常使用:

  • RAG(检索增强生成)
  • 工具调用(搜索、计算器、代码执行)
  • 验证层和后处理

LLM 最适合作为系统中的组件,而非独立的完整解决方案。

🔚 结语

了解 LLM 的真实工作方式可以帮助你:

  • 编写更好的提示
  • 设计更安全的系统
  • 设定合理的期望
  • 避免对模型输出过度信任

如果你正在进行 AI 开发或转向 AI 工程,这些基础知识至关重要。

Back to Blog

相关文章

阅读更多 »

为你的LLMs设立护栏

!Forem 标志 https://media2.dev.to/dynamic/image/width=65,height=,fit=scale-down,gravity=auto,format=auto/https%3A%2F%2Fdev-to-uploads.s3.amazonaws.com%2Fuploads%...