英伟达™(NVIDIA®)GTC 2025 总结: 18 款值得关注的新产品
这篇文章于 2025 年 4 月 18 日首次出现在The New Stack上。
获取 NVIDIA 年度最大活动中主要计算、网络、存储和合作伙伴关系公告的全面摘要。
如果您关注科技新闻,您一定读过很多关于 NVIDIA 及其图形处理器 (GPU) 的文章。然而,认为 NVIDIA 只专注于 GPU 是错误的。上个月 NVIDIA 的 GTC 2025 大会给我最大的启示是,NVIDIA 在计算、网络和存储领域都进行了创新。这些创新大多与 AI 相关,但游戏玩家不必担心;全新的 RTX 芯片即将面世。
首席执行官黄仁勋在主题演讲中重点介绍了 NVIDIA 的最新公告和关键技术,这些公告和关键技术凸显了 NVIDIA 在计算、网络、存储及其合作伙伴关系等领域的布局。NVIDIA 还希望为各种规模的 AI 从业者提供解决方案:在台式电脑上进行实验的工程师;运行 AI 基础设施的企业(NVIDIA 认为这是一个价值 5000 亿美元的商机);需要专用光子网络设备的超大规模企业;以及利用机器人技术突破物理 AI 界限的组织。
让我们从计算开始,因为这是 NVIDIA 凭借其首款游戏 GPU 一举成名的原因。
计算
1. GeForce RTX 5090
GeForce RTX 5090将成为面向游戏玩家和创意专业人士的全新高端桌面 GPU。(您知道 RTX 是 Ray Tracing Texel Extreme 的缩写吗?这是一种用于游戏模拟逼真光影的技术。)游戏玩家将受益于光线追踪延迟的降低。它基于 NVIDIA Blackwell 架构,配备 32GB 高速 GDDR7(图形双倍数据速率 7)显存和 3.4 petaflops 的 FP4 计算能力。与 RTX 4090 相比,它的体积缩小了 30%,散热性能提高了 30%。可惜的是,这款 GPU 的售价高达 1,999 美元。如果您是 AI/ML 工程师,您可能会想用它来进行 AI 实验和工作负载,但在这之前,请先阅读下文中关于 DGX Spark 的内容。
2. CUDA-X
NVIDIA CUDA-X并非新发布,而是持续投入的成果。CUDA-X 是基于 CUDA 构建的一系列优化库,旨在加速 AI、高性能计算 (HPC) 和数据科学工作负载。这些库旨在帮助开发者充分利用 NVIDIA GPU 的优势,开发各种应用程序,而无需编写底层 GPU 代码。其中许多库可以直接替代现有的 CPU 库。例如,cuDF 库可用于在零代码更改的情况下替换 Pandas 和 Polars。以下是所有库的完整列表:
- cuPyNumeric:数值计算(Numpy 替代品)
- cuDF 和 cuML:数据科学与处理(Pandas 替代品)
- cuEquivariance 和 cuTensor:量子化学
- cuLitho:计算光刻
- 地球-2:天气分析
- Sionna 航空:5G/6G 信号处理
- cuOpt:决策优化
- Parabricks:基因测序
- Monai:医学成像
- cuQuantim 和 Cuda-Q:量子计算模拟
- TRT-LLM、Megatron、NCCL、cuDDN、Cutlass、cuBlas:深度学习
- cuDSS、cuSparse、cuFFT 和 AMGX:计算机辅助工程
- 扭曲:物理学
3. DGX Spark
NVIDIA 的DGX Spark此前于 1 月的 CES 2025 上以 Project DIGITS 的名称亮相,是一款旨在提供超越游戏系统计算能力的台式计算机。DGX Spark 专为需要在本地构建原型、进行微调和部署大型 AI 模型(而非单纯依赖云或数据中心资源)的 AI 开发者、研究人员和数据科学家量身定制。规格:
- 芯片:GB10 Grace Blackwell超级芯片,拥有基于Blackwell架构的GPU和Grace 20核Arm CPU
- 性能:FP4 下 1 petaflop
- 内存:128GB统一内存
- 网络:ConnectX-7 智能网卡
- 存储:支持高达 4TB 的 NVMe SSD 存储
- 预装 NVIDIA AI 软件堆栈
华硕将推出一款名为 ASUS Ascent GX10 的型号,配备 1TB 存储空间,售价 2,999 美元。如果您需要更多存储空间,可以直接从 NVIDIA 购买,4TB 存储空间的 DGX Spark 售价 3,999 美元。最后,如果您想打造一个迷你 AI 工厂,可以从 NVIDIA 购买两台 DGX Spark 以及连接线,售价 8,049 美元。

4.DGX 工作站
DGX Station也是一款面向 AI 专业人士的台式计算机。它比 DGX Spark 功能强大得多,并且仅通过合作伙伴提供。NVIDIA 不会生产这款台式计算机的自主版本。价格信息尚未公布。然而,其初始规格表明价格不菲。以下是 NVIDIA 迄今为止发布的规格:
芯片:NVIDIA GB300 Grace Blackwell Ultra 桌面超级芯片,配备 Blackwell Ultra GPU 和 Grace-72 Core Neoverse V2 CPU
性能:FP4 时每秒 20 千万亿次浮点运算
GPU 内存:高达 288GB HBM3e(8 TB/s)
CPU 内存:高达 496GB LPDDR5X(高达 396 GB/s)
NVLink-C2C:高达 900 GB/s
网络:ConnectX-8 SuperNIC(高达 800 Gb/s)
预装 NVIDIA AI 软件堆栈
5. David Blackwell GPU 架构
Blackwell GPU已全面投产,来自四大云服务提供商(甲骨文、谷歌、微软和亚马逊)的订单已超过 Hopper GPU 的销售高峰期。2024 年,NVIDIA 售出了 130 万块 Hopper GPU,而截至 2025 年,Blackwell 的订单已达 360 万块。此外,运行 Dynamo 的 GB200 NVL72 的推理性能将比 Hopper 强 40 倍。
6. Vera Rubin GPU架构
下一代数据中心 GPU 将基于 Rubin 架构,该架构以发现暗物质的美国天文学家Vera Rubin的名字命名。它有望比上一代架构速度快 2.5 倍。它将配备 288GB 的 HDM4 内存。
网络 GPU
7.布莱克韦尔 GB200 NVL72
Blackwell GB200 NVL72 现已上市。它在一个机架中连接了 36 个 Grace CPU 和 72 个 Blackwell GPU。这使得这 72 个 GPU 可以组成一个巨型 GPU——NVIDIA 称之为“终极扩展”。这样的系统能够承载数万亿参数的大型语言模型 (LLM)。
8.Blackwell Ultra GB300 NVL72
Blackwell Ultra NVLink-72 将于 2025 年下半年上市。其性能有望达到 GB200 NVL72 的 1.5 倍。此外,LLM(注意指令)的指令集也得到了改进,内存容量也增加了 1.5 倍。
9. 维拉·鲁宾 NVL144
Vera Rubin 机架配置将于 2026 年下半年上市。它将使用 NVLink-C2C 连接 88 个 Vera CPU,并使用 NVLink6 连接 144 个 Rubin GPU。除了底盘之外,该设计几乎所有部分都是全新的,这将使升级更加便捷。
10. Vera Rubin Ultra NVL576
Vera Rubin Ultra 预计将于 2027 年下半年上市。CPU 规格保持不变,但该机架将包含 576 个通过 NVLink7 连接的 Rubin Ultra GPU。其速度有望比 GB300 NVL72 快 14 倍。
11. NVIDIA Dynamo
托管万亿参数 LLM 的最佳方法是将其分布到使用 NVL72 链接的多个 GPU 上。NVIDIA 将这种技术称为“分解服务”。但是,如果将 LLM 拆分到多个 GPU 上,您不希望随机进行。相反,您需要以最小化进程内通信的方式拆分 LLM。您还希望能够分别扩展 LLM 的每个部分。(就像您可以使用微服务架构分别扩展应用程序中的不同服务一样。)
为了应对分布式和分解式推理的挑战,NVIDIA 创建了开源推理框架Dynamo 。它提供以下功能:
- GPU 资源规划器:一种规划和调度引擎,可监控多节点部署中的容量和预填充活动,以调整 GPU 资源并在预填充和解码之间分配它们。
- 智能路由器:一种键值(KV)缓存感知路由引擎,可有效地引导多节点部署中的大型 GPU 集群之间的传入流量,以最大限度地减少昂贵的重新计算。
- 低延迟通信库:最先进的推理数据传输库,可加速 GPU 之间以及跨异构内存和存储类型传输 KV 缓存。
- KV 缓存管理器:一种成本感知的 KV 缓存卸载引擎,可在各种内存层次结构之间传输 KV 缓存,从而释放宝贵的 GPU 内存,同时保持用户体验。

12.Spectrum-X
Spectrum-X代表了 NVIDIA 的横向扩展能力。很多人对 NVIDIA 进军以太网领域感到惊讶,但 NVIDIA 想要帮助以太网变得更像 InfiniBand。(InfiniBand 通常用于高性能计算,而以太网更适合用于通用网络,例如连接设备。)因此,NVIDIA 投资了 Spectrum-X,它由 Spectrum-X SuperNIC 和 Spectrum-X 以太网交换机组成,并赋予其 InfiniBand 所包含的功能。
贮存
13.高速存储
所有这些高速计算和网络都需要高速存储来驱动。为此,MinIO 与 NVIDIA 合作,将 NVIDIA GPUDirect Storage、NVIDIA BlueField-3、NVIDIA NIM和NVIDIA 的 GPU Operator与 AIStor 集成。这些新功能和集成已向 MinIO AIStor 测试版用户开放,目前处于私人预览阶段。
AIStor 的 PromptObject 改变了用户与存储对象的交互方式,允许用户提出有关数据内容的问题并使用自然语言提取信息,无需编写复杂的查询或代码。NVIDIA GPU Operator 基于 Kubernetes Operator 框架构建,为 GPU 管理提供全面的自动化解决方案。AIStor 与 NVIDIA GPU Operator 的集成将使企业能够轻松设置基于 GPU 的集群,并与 AIStor 的 PromptObject API 配合使用。
MinIO 正在添加 NVIDIA NIM 微服务,以便希望使用 NIM 部署 PromptObject 的 AIStor 客户能够直接从 AIStor 的全局控制台进行部署。
即将推出的 NVIDIA GPUDirect Storage (GDS) 与 MinIO AIStor 的集成是一种共同设计的解决方案,它允许将 AIStor 中的对象直接发送到 GPU 内存,而无需使用 CPU 的内存作为反弹缓冲区,这是当今必须采用的技术。
NVIDIA BlueField-3 (BF3) DPU 拥有 16 个 ARM 核心、400Gb/s 以太网或 InfiniBand 网络,以及用于加密、压缩和纠删码等任务的硬件加速器。AIStor 的二进制文件大小较小(约 100MB),使其成为在 BF3 DPU 上原生部署的理想选择,尤其是在资源受限的情况下,需要轻量级但功能强大的软件。
部署在 BF3 DPU 上的 AIStor 将为企业提供一个与 NVIDIA Spectrum-X 网络架构无缝集成的平台。这将提供 AI 环境所需的低延迟、高带宽性能,并确保数据传输能够满足高负载 GPU 的需求。在 BF3 DPU 上部署 AIStor 还能让客户轻松利用 GPU 直接存储 (GDS) 功能。
其他合作伙伴关系
14. 通用汽车与自动驾驶车队合作
通用汽车与 NVIDIA 在自动驾驶车队方面的合作的一个关键部分是 NVIDIA Halos,这是一个全栈综合安全系统,统一了车辆架构、AI 模型、芯片、软件、工具和服务,以确保从云端到汽车的自动驾驶汽车 (AV) 的安全发展。
该系统通过在设计、部署和验证阶段设置护栏,确保整个开发生命周期的安全,从而共同构建基于 AI 的 AV 堆栈的安全性和可解释性。这些护栏使用三台计算机实现:用于训练的 NVIDIA DGX、用于模拟的 NVIDIA Omniverse 和 Cosmos,以及用于部署的 NVIDIA AGX。
15. NVIDIA 与生态系统合作伙伴共同封装光学 (CPO) 共同发明。
NVIDIA 宣布推出适用于足球场大小数据中心的光子交换系统。对于如此规模的数据中心,铜线无法高效传输信号。此次与众多生态系统组织的合作将使 Quantum-X 光子交换系统于 2025 年下半年上市,Spectrum-C 光子交换系统则将于 2026 年下半年上市。
16. 物理人工智能合作伙伴关系
NVIDIA 将物理 AI 和机器人技术视为 AI 的下一个前沿领域。因此,它与迪士尼研究院和谷歌 DeepMind 就物理 AI 展开合作。该合作项目名为“牛顿计划”,旨在开发先进的物理引擎。“牛顿计划”还率先推出了 GR00T N1 基础模型,该模型采用受人类认知原理启发的双系统架构。第一个原型“系统 1”是一个快速思考的动作模型,模拟人类的反应或直觉。“系统 2”是一个慢速思考的模型,用于进行深思熟虑、有条理的决策。GROOT N1 将开源。
17. 电信边缘的全栈人工智能
NVIDIA 将与思科、T-Mobile 和 ODC(Cerberus Capital Management 的投资组合公司)合作开发基于 AI 的全栈无线网络,包括 6G 的硬件、软件和架构,明确专注于支持边缘 AI 应用。
18. 与思科的合作
思科将把Spectrum-X集成到其产品中。
概括
NVIDIA 在三月份的活动中宣布了涵盖计算、网络和存储领域的新技术和合作伙伴关系。简要回顾一下:
计算:六种新产品为桌面系统、分析引擎和 GPU 架构提供原始计算。
网络:六项与 GPU 联网相关的公告。这些发布包括机架内 GPU 的联网,以及超大规模企业(或希望模仿超大规模企业的组织)所需的网络技术,因为数据中心的物理规模会带来挑战。
存储:MinIO 和 NVIDIA 一直密切合作,以确保存储能够跟上网络和计算的发展。MinIO 最近宣布未来将支持四项 NVIDIA 技术:GPUDirect Storage、NIM、BlueField3 和 GPU Operator。
其他合作伙伴关系:这五种产品是与通用汽车、思科、迪士尼研究院、T-Mobile、谷歌 DeepMind、ODC 以及致力于光子开关的合作伙伴生态系统建立额外合作伙伴关系的成果。