Co-Packaged Optics (CPO):重新定义 AI 数据中心的光互连
Source: Dev.to
请提供您希望翻译的正文内容,我将为您翻译成简体中文并保留原有的格式。
介绍
随着人工智能(AI)、高性能计算(HPC)和云服务的持续扩展,数据中心网络正面临前所未有的压力。全球数据流量的年复合增长率接近 30 %,其中近 75 % 的流量仍然停留在数据中心内部。这一快速增长正将传统光互连架构推向物理和经济的双重极限。
传统可插拔光学的挑战
现代交换 ASIC 和 AI 加速器的发展速度快于连接它们的互连技术。随着网络速度从 800 Gb/s 向 1.6 Tb/s 甚至更高转变,传统的可插拔光模块面临若干结构性约束,仅通过增量优化难以解决:
- 带宽密度约束
- 功耗挑战
- 系统复杂度提升
综上所述,这些约束表明传统的可插拔架构正接近其实际的扩展极限。进一步的带宽增长越来越需要在光互连设计上进行根本性的架构转变。
Co‑Packaged Optics (CPO) 概述
Co‑Packaged Optics (CPO) 是一种光互连架构,将光引擎直接与交换 ASIC 或计算芯片集成在同一封装或基板内。通过利用 2.5 D 或 3 D 集成等先进封装技术,CPO 将电气路径长度从厘米级缩短到毫米级。
注意: “CPO 光模块” 有时被非正式使用。更准确的说法是,CPO 指的是在封装层级上共封装的光引擎,而不是可插拔模块。
CPO 工作原理
- 光引擎与硅芯片 并排 放置在同一封装中。
- 电气互连被缩短至 毫米级 距离,提升信号完整性。
- 先进的封装技术(例如硅中介层、硅通孔)实现了电气和光信号的高密度路由。
CPO 的优势
- 提升能效 – 更短的电气路径降低损耗并降低每比特功耗。
- 降低延迟 – 最小化的电气距离缩短传播延迟。
- 更高的带宽密度 – 更紧密的集成使得单位面积内拥有更多通道。
- 简化系统设计 – 消除对复杂信号补偿电路和板上高速 SerDes 驱动器的需求。
这些优势对 AI 工作负载至关重要,因为大规模、低延迟的互连带宽直接影响整体系统性能。
采用前景与挑战
尽管前景光明,CPO 的采用预计将是逐步进行的。主要挑战包括:
- 热管理:共封装激光器和光学引擎的热管理。
- 制造良率和可靠性:在先进的 2.5 D/3 D 封装工艺中的制造良率和可靠性。
- 现场可更换性受限:相较于可插拔模块,现场更换受限。
- 持续的 生态系统标准化 工作。
因此,CPO 可能首先出现在带宽和功耗最受限制的环境中,而先进的可插拔光学解决方案将继续服务于主流数据中心应用。
在近期至中期,CPO 将与 线性可插拔光学 (Linear Pluggable Optics, LPO) 等技术共存。预计 LPO 将支持向更高数据速率的过渡,而 CPO 在 3.2 Tb/s 及以上 时将变得越来越有吸引力,因为传统架构在功耗效率和带宽密度方面的收益递减。
常见问题
Q: CPO 与传统可插拔光模块有何不同?
A: CPO 将光引擎直接集成在与 ASIC 或计算芯片同一封装内,将电气互连缩短至毫米级,而可插拔模块则通过板级走线连接,长度为厘米级。
Q: CPO 会完全取代可插拔光学模块吗?
A: 不会。预计 CPO 将补充现有的可插拔解决方案,两者将在不同的使用场景和性能目标下共存。
Q: 为什么 CPO 对 AI 数据中心很重要?
A: AI 工作负载需要巨大的低延迟带宽。CPO 更高的带宽密度、更低的每比特功耗以及更低的延迟,符合 AI 加速器和交换芯片的扩展需求。
Q: 仍然存在哪些挑战限制 CPO 的采用?
A: 热管理、制造良率、高级封装的可靠性、现场可更换性受限,以及对标准化接口的需求。
Q: 在什么速度下 CPO 最具吸引力?
A: 当数据速率达到 3.2 Tb/s 及以上 时,CPO 特别有吸引力,因为传统可插拔光模块会遇到功耗和密度瓶颈。