GPUs:图形和 AI 处理器——从像素到智能
Source: Dev.to

为什么 GPU 永久改变了计算
乍一看,GPU 可能只会被认为是“让游戏画面更好看的东西”。
实际上,GPU 从根本上重塑了现代计算。从最早启发 Pong 的示波器,到训练像 ChatGPT 这样的 AI 模型,GPU 解锁了 大规模并行处理——这是仅靠 CPU 无法高效实现的能力。
本文将探讨 GPU 的工作原理、它们为何存在,以及 它们为何如今驱动图形、AI、科学和整个行业。
起源:在屏幕之前,在 GPU 之前
早期的计算机没有显示器;结果是打印在纸上的。第一批可视化输出设备来自 示波器,这是一种用于可视化电磁波的电子仪器。工程师们改装这些设备以显示交互信号,并在这种实验中诞生了第一款视频游戏:Pong。这标志着数字图形的诞生——远早于图形操作系统的出现。
随后,像 Tetris 和 Prince of Persia 这样的游戏在 UNIX 和 DOS 系统上运行,图形能力极其有限。这些限制迫使硬件不断进化,催生了专注于图形处理的专用单元:GPU。
CPU vs GPU — 顺序 vs 并行 思维
了解 GPU 必须先了解 它们与 CPU 思考方式的不同。
CPU:顺序专长
- 为复杂逻辑进行优化
- 按顺序逐条执行指令
擅长的场景:
- 电子表格
- 浏览网页
- 业务逻辑
- 操作系统
GPU:并行强力
- 拥有成千上万个小核心
- 同时执行简单操作 并行
完美适用的场景:
- 渲染数百万像素
- 视频游戏
- 仿真
- 机器学习
思维模型:
- CPU → 一个非常聪明的工人,逐个解决问题
- GPU → 成千上万的快速工人,同时解决问题的微小部分
VRAM 与 CUDA — 解锁并行计算
VRAM:为图形而生的内存
GPU 使用 Video RAM (VRAM)——一种专为并行访问设计的专用内存。VRAM 能实现:
- 游戏中的纹理映射
- 大规模模拟
- 高分辨率渲染
- 科学工作负载
这种能力催生了令人惊讶的用例,例如将 运行 Linux 的 PlayStation 3 等消费级硬件转变为低成本超级计算机。
CUDA:直接编程 GPU
CUDA,由 NVIDIA 开发,改变了一切。它使开发者能够:
- 在图形之外编程 GPU
- 运行物理模拟
- 加速 AI 训练
- 为加密货币挖矿提供动力
CUDA 将 GPU 从“显卡”转变为 通用并行处理器。
GPU 与人工智能的崛起
现代 AI 的出现离不开 GPU。并行处理对以下工作至关重要:
- 神经网络训练
- 矩阵乘法
- 反向传播
- 模型推理
GPU 驱动的行业
- 人工智能: 像 ChatGPT 这样的模型能够同时评估数百万种可能性。
- 自动驾驶汽车: GPU 实时处理摄像头、雷达和传感器数据。
- 加密货币: 并行的密码学计算支持大规模挖矿。
- 科学研究: 气候建模、物理仿真和基因组学等领域高度依赖 GPU。
这种爆炸性的需求重塑了全球硬件市场。
VR、AR 与实时图形
Virtual and augmented reality pushed GPUs even further. Each eye requires:
- A separate rendered image
- Ultra‑low latency
- Perfect synchronization
Valve addressed this with SteamOS, optimizing systems for gaming and VR workloads. Film studios and animation pipelines rely on GPUs for:
- 光线追踪(physical light simulation)
- Real‑time rendering
- High‑performance video codecs
硬件设计与热现实
GPU 是对物理要求很高的组件。典型特性:
- 通过 PCIe 连接
- 极高的功耗
- 大量的热量产生
冷却方案
- 高性能风冷
- 液体冷却循环
- 油浸冷却(用于极端工作负载)
在移动设备和现代 Apple 电脑中,GPU 直接集成到 系统级芯片 (SoC) 设计中,显著提升了:
- 能源效率
- 热性能
- 内存共享
- 图形吞吐量
最终思考
GPU 已不再仅仅是“只用于游戏”。它们是:
- AI 加速器
- 科学引擎
- 创意工具
- 现代并行计算的骨干
一旦你了解 GPU,就能清晰地看到现代计算的本质:它不再是更快的 CPU,而是 为并行现实而设计的架构。
💬 你对 GPU 有什么经验?
游戏、AI、渲染、加密,还是其他?来聊聊吧。
为想了解现代智能背后硬件的开发者而写。