NVIDIA 与 AWS 扩大全栈合作伙伴关系,提供对未来创新至关重要的安全高性能计算平台

发布: (2025年12月3日 GMT+8 00:00)
8 min read

Source: NVIDIA AI Blog

概览

在 AWS re:Invent 大会上,NVIDIA 与亚马逊网络服务(AWS)通过在互连技术、云基础设施、开放模型和实体 AI 方面的全新技术集成,扩大了双方的战略合作。

作为此次扩展的一部分,AWS 将支持 NVIDIA NVLink Fusion——一个用于定制 AI 基础设施的平台,以部署其定制设计的硅芯片,包括用于推理和代理 AI 模型训练的下一代 Trainium4 芯片、用于广泛工作负载的 Graviton CPU,以及 Nitro 系统虚拟化基础设施。

借助 NVIDIA NVLink Fusion,AWS 将结合 NVIDIA NVLink 大规模互连和 NVIDIA MGX 机架架构与 AWS 定制硅,以提升性能并加速其下一代云规模 AI 能力的上市时间。

AWS 正在设计 Trainium4,以与 NVLink 和 NVIDIA MGX 集成,这标志着 NVIDIA 与 AWS 在 NVLink Fusion 方面的多代合作的首次。AWS 已经在大规模部署了配备 NVIDIA GPU 的 MGX 机架。整合 NVLink Fusion 将进一步简化其平台的部署和系统管理,并使 AWS 能够利用 NVLink Fusion 供应商生态系统,该生态系统提供全机架部署所需的所有组件——从机架和机箱到供电和冷却系统。

通过支持 AWS 的 Elastic Fabric Adapter 和 Nitro 系统,AWS 上的 NVIDIA Vera Rubin 架构将为客户提供强大的网络选项,同时保持与 AWS 云基础设施的完全兼容,并加速新 AI 服务的推出。

“GPU 计算需求正呈指数级增长——更多的计算产生更智能的 AI,智能的 AI 推动更广泛的使用,而更广泛的使用又产生对更多计算的需求。AI 的良性循环已经到来,” NVIDIA 创始人兼 CEO 黄仁勋说。“随着 NVIDIA NVLink Fusion 在 AWS Trainium4 上的落地,我们将把我们的大规模架构与 AWS 的定制硅统一,构建新一代加速平台。NVIDIA 与 AWS 正在共同打造 AI 工业革命的计算织网——将先进的 AI 带给每一家企业、每一个国家,加速全球迈向智能的道路。”

“AWS 与 NVIDIA 已携手合作超过 15 年,今天标志着这一旅程的新里程碑,” AWS CEO Matt Garman 说。“与 NVIDIA 合作,我们正在推进大规模 AI 基础设施,为客户提供最高的性能、效率和可扩展性。即将在 AWS Trainium4、Graviton 和 Nitro 系统中支持 NVIDIA NVLink Fusion,将为客户带来全新能力,使他们能够比以往更快地创新。”

规模与主权的融合

AWS 已通过 NVIDIA Blackwell 架构扩展了其加速计算产品组合,包括 NVIDIA HGX B300 和 NVIDIA GB300 NVL72 GPU,为客户提供对业界最先进的训练和推理 GPU 的即时访问。预计在接下来的几周内,AWS 将提供针对视觉应用设计的 NVIDIA RTX PRO 6000 Blackwell Server Edition GPU。

这些 GPU 是 AWS 基础设施骨干的一部分,为 AWS AI Factories 提供动力——这是一项全新的 AI 云服务,向全球客户提供专用基础设施,以在由 AWS 运营的自有数据中心中利用先进的 AI 服务,同时保持对数据的控制并遵守当地法规。

NVIDIA 与 AWS 承诺在全球部署主权 AI 云,提供满足日益严格的主权 AI 要求的安全、主权 AI 基础设施。对于公共部门组织而言,AWS AI Factories 将改变联邦超级计算和 AI 的格局,实现 AWS 可靠、安全、可扩展的云服务与 NVIDIA Blackwell GPU 以及完整的 NVIDIA 加速计算平台(包括 NVIDIA Spectrum‑X 以太网交换机)的无缝集成。

统一的架构确保客户能够访问先进的 AI 服务,训练并部署大规模模型,同时在保持对专有数据的绝对控制的前提下,完全符合当地监管框架。

NVIDIA Nemotron 与 Amazon Bedrock 的整合扩展软件优化

除了硬件,合作还扩大了 NVIDIA 软件栈与 AWS AI 生态系统的整合。NVIDIA Nemotron 开放模型现已与 Amazon Bedrock 集成,使客户能够在生产规模上构建生成式 AI 应用和代理。开发者可以使用 Nemotron Nano 2 和 Nemotron Nano 2 VL 来构建专用的代理 AI 应用,能够高效、精准地处理文本、代码、图像和视频。

该整合使高性能、开放的 NVIDIA 模型可通过 Amazon Bedrock 的无服务器平台即时使用,提供经验证的可扩展性且无需基础设施管理。行业领袖如 CrowdStrikeBridgeWise 已率先使用该服务部署专用 AI 代理。

NVIDIA 软件在 AWS 上简化开发者体验

NVIDIA 与 AWS 正在软件层面共同工程,以加速每个企业的数据骨干。Amazon OpenSearch Service 现已提供用于向量索引构建的无服务器 GPU 加速,由 NVIDIA cuVS 提供支持——这是一款用于 GPU 加速向量搜索和数据聚类的开源库。早期采用者报告称向量索引速度提升最高可达 10 倍,成本仅为原来的四分之一,显著降低搜索延迟、加速写入,并为检索增强生成等动态 AI 技术解锁更快的生产力。

面向生产的 AI 代理需要性能可视化、优化和可扩展基础设施。通过组合:

  • Strands Agents – 用于代理开发与编排
  • NVIDIA NeMo Agent Toolkit – 用于深度分析与性能调优
  • Amazon Bedrock AgentCore – 用于安全、可扩展的代理基础设施

组织可以为开发者提供从原型到生产的完整、可预见路径。

此扩展支持基于 AWS 已有的 NVIDIA 技术集成——包括 NVIDIA NIM 微服务、NVIDIA Riva、以及 NVIDIA BioNeMo——以及与 Amazon SageMaker 和 Amazon Bedrock 集成的模型开发工具。

Back to Blog

相关文章

阅读更多 »