易IC电子行业销售管理系统 - 易IC电子行业库存管理软件
首页 / 行业新闻 / 正文

Nvidia在2026年CES上成为焦点

2026-02-19   电子工程时代
阅读时间约 3 分钟
Nvidia在2026年CES上是最具影响力的公司,推出了多项与AI和汽车相关的新产品。
下表总结了Nvidia的公告和信息,重点在于汽车领域的影响。对于自动驾驶(AV)行业,Nvidia的Alpamayo AV平台是CES上最重要的公告。Nvidia将其描述为首个基于视觉语言动作(VLA)的推理或使用思维链推理策略的AI模型。Alpamayo还具有仿真能力,并配有基于1700小时驾驶数据的物理AI开放数据集。
Vera Rubin平台由六块超级芯片组成,如上表所示。这些芯片旨在大幅提高使用数千块Vera Rubin平台芯片的大规模AI系统的性能。这需要增加以太网连接的通信性能,以及IT中心中机架系统中的交换机和相关通信芯片。
三个子系统列在上表中,以下提供了更多细节。Vera Rubin超级芯片是一块带有两个Rubin GPU、一个Vera CPU、大量内存和NVLink交换芯片的电路板。
Vera Rubin计算托盘包含两块超级芯片、一个BlueField-4数据处理单元(DPU)和ConnectX-9超级NIC。超级NIC的主要目的是加速多个GPU在AI应用中的网络性能。它是将许多Rubin GPU组合成更大的AI系统的关键因素。计算托盘是基于GPU的AI系统的核心构建模块。
Vera Rubin NVLink交换托盘包括四个NVLink交换芯片,是连接机架系统中GPU的另一个核心网络子系统。它使用四个NVLink交换芯片,每块GPU提供3.6 TB/s的带宽。
Vera Rubin NVL72机架是Rubin平台的旗舰产品。它是用于在IT数据中心构建一系列AI系统的系统。它被设计成使整个机架作为一个连贯的机器在一个更大的AI工厂内运行。
DGX SuperPOD是一个完整的AI训练或推理系统,由八个Vera Rubin NVL72机架组成。它有576个Rubin GPU和288个Vera CPU。许多DGX SuperPODs可以连接成拥有数十到数百个DGX SuperPODs的AI工厂。
下图提供了六个芯片的摘要信息,这些芯片是Nvidia AI工厂和物理AI系统的构建块。该概述基于Nvidia对Rubin平台的详细30多页描述。文章提供了每个芯片的性能规格和由大量Rubin平台芯片构建的AI系统架构的信息。完整的Nvidia Rubin平台描述可在此处找到。
下一张图片显示了链接文章中描述的六个超级芯片:Vera CPU、Rubin GPU、ConnectX-9、NVLink 6 Switch、BlueField-4 DPU和Spectrum Ethernet Switch。下面提供了每个芯片的摘要描述。
Vera CPU是新一代CPU,专为管理数千个GPU和AI工厂的高利用率而设计。而不是作为传统的通用主机运行,Vera针对跨GPU系统的协调、数据移动和统一内存访问进行优化,例如代理处理AI用例。
Vera拥有88个Olympus CPU核心,具有完整的Arm v9.2兼容性。每个核心有2 MB的L2缓存,可提供176个空间多线程操作。Vera拥有162 MB的统一L3缓存。内存容量高达1.5 TB的LPDDR5X内存。内存带宽高达1.2 TB每秒。
Vera引入了空间多线程,这是一种新的多线程类型,通过物理划分资源而不是时间切片来在每个核心上运行两个硬件线程。
Rubin GPU是最新一代GPU,专为持续训练、后训练和始终在线的AI工厂中的推理而设计。当前的AI工作负载受到峰值浮点运算(FLOPS)的限制。它们还受到执行效率是否能在计算、内存和通信中保持的限制。Rubin GPU专门设计来解决这个问题,优化将功率、带宽和内存转化为更好的AI工作负载性能的执行路径。
为了维持吞吐量,Rubin GPU在三个紧密耦合的维度上改进其架构:计算密度、内存带宽和机架级通信。在硅片层面,Rubin为变压器时代的工作负载扩展了每个关键子系统。GPU集成了224个流式多处理器(SMs),配备了第六代张量核心,针对低精度NVFP4和FP8执行进行了优化。
芯片复杂度通过晶体管数量来衡量,Rubin的晶体管数量为3360亿,比Blackwell GPU增加了1.6倍。Rubin使用了最新的高带宽内存HBM4,于2025年4月推出。
性能提升是Blackwell的2至5倍。每块GPU的带宽为3.6 TB/s。HBM4带宽为22 TB/s,比Blackwell高出2.8倍。
NVLink 6 Switch是增加GPU到GPU带宽的第六代技术。它是为Rubin平台芯片和系统提供扩展技术的芯片。它使72块Rubin GPU在NVL72系统中作为一个紧密耦合的加速器运行,具有均匀的延迟和持续的带宽,在通信主导的工作负载下。每块Rubin GPU通过NVLink 6连接,具有3.6 TB/s的双向带宽。NVLink 6开关托盘在机架中形成一个单一的全对全拓扑结构,允许任何GPU与其他GPU通信,具有一致的延迟和带宽。从软件角度来看,机架表现得像一个大型加速器,简化了通信密集型AI模型的扩展。36个NVLink 6开关用于连接NVL72系统中的GPU。
ConnectX-9作为Spectrum-X以太网结构的智能端点,提供可预测的性能,同时强制流量隔离和安全操作。在Vera Rubin NVL72机架规模架构中,每个计算托盘包含四个ConnectX-9超级NIC板,为每个Rubin GPU提供1.6 Tb/s的网络带宽。ConnectX-9在AI工厂网络安全部分也起着关键作用。集成的加密引擎支持数据传输和静态数据的高速加密,实现安全操作。
BlueField-4 DPU是一个结合64核Grace CPU用于基础设施卸载和安全的双芯片封装。内存容量为168 GB,带宽为250 GB/s。BlueField-4集成了ConnectX-9高速网络芯片,用于紧密耦合的数据移动。BlueField-4提供高达800 Gb/s的超低延迟以太网或InfiniBand连接。Nvidia称之为:“为AI工厂的操作系统提供动力。”
BlueField-4引入了高级安全可信资源架构(ASTRA),这是一个系统级信任架构,在计算托盘内建立一个信任域。ASTRA为AI基础设施建设者提供了一个单一的可信控制点,可以安全地配置、隔离和操作大规模AI环境,而不会牺牲性能。
在Rubin平台上,BlueField-4作为AI工厂的软件定义控制平面运行。它独立于主机CPU和GPU,强制安全、隔离和确定性操作。通过将基础设施服务卸载并加速到专用处理层,BlueField-4使AI工厂能够扩展并保持一致的性能、强大的隔离和高效的操作。
Spectrum-6以太网交换机
AI工厂必须超越单个Vera Rubin NVL72系统,并可能需要在地理分布的数据中心之间扩展。性能则取决于网络在同步、突发AI流量下的可预测行为。为了支持规模扩展和跨规模AI工厂部署,Rubin平台引入了Spectrum-X以太网光子学。这是基于共封装光学的新一代Spectrum-X以太网交换技术,推进了Nvidia为加速计算设计的专用以太网技术。
Spectrum-6以太网提供通过先进拥塞控制、自适应路由和无损以太网行为的可预测、低延迟、高带宽连接。Spectrum-6通过使用512个端口和200 Gb/s的数据传输速率,将每交换芯片的带宽翻倍至102.4 Tb/s。
从芯片到系统:Vera Rubin超级芯片到DGX SuperPOD
Nvidia的Rubin平台芯片用于构建子系统和系统。这些系统成为AI工厂的构建块。下图显示了三个子系统和两个系统,它们是AI工厂的核心构建块。Vera Rubin超级芯片是子系统级别的关键构建块。Vera Rubin NVL72计算托盘是下一步,因为它由多个超级芯片构建。Vera Rubin交换托盘使用NVLink 6交换芯片来增加GPU带宽并扩大Vera Rubin NVL72系统的性能。下图左下角显示了一个Vera Rubin NVL72机架系统。
Vera Rubin超级芯片是大型AI系统的基石。每个超级芯片通过内存一致的NVLink-C2C互连将两个Rubin GPU和一个Vera CPU结合在一起,将传统的CPU-GPU边界融合为一个统一的、机架规模的执行域。
通过将GPU计算与高速CPU数据引擎整合到一块主机主板上,超级芯片提高了数据局部性,减少了软件开销,并在异构执行阶段维持更高的利用率。它成为芯片级创新与机架规模智能之间的架构桥梁。
Vera Rubin NVL72计算托盘
NVL72计算托盘将Vera Rubin超级芯片转换为可部署、可维护的单位,用于构建AI工厂。每个托盘集成了两个超级芯片、电源供应、冷却、网络和管理功能,形成一个模块化、无电缆的组装。托盘经过优化,具有高密度、可靠性和易于操作。
Vera Rubin NVL72Link交换托盘
NVL72Link交换托盘将多个计算托盘转换为一个连贯的系统,并确保随着模型、批量大小和推理深度的增加,性能可以可预测地扩展。
Vera Rubin NVL72系统
Rubin平台的旗舰产品是Vera Rubin NVL72机架系统。它被设计成让整个机架在一个更大的AI工厂内作为一个连贯的机器运行。NVL72系统机架是DGX SuperPODs的构建块。每个NVL72机架有八个Rubin GPU。Spectrum-X以太网共封装光学是连接NVL72计算托盘到Vera Rubin NVL72机架系统的关关键子系统。
DGX SuperPOD与DGX Vera Rubin NVL72
DGX SuperPOD代表了Rubin平台大规模部署的蓝图。它由八个DGX Vera Rubin NVL72系统构成,定义了在生产环境中AI工厂经济性、可靠性及性能汇聚的最小单位。DGX SuperPODs是即插即用系统,许多这样的系统用于部署AI工厂。
DGX SuperPOD被设计为一个完整的系统。从硅片和互连到编排和运营,每一层都协同设计和验证,以实现持续利用、可预测的延迟和效率。NVL72名称基于72个Rubin GPU,包含在名称中。
DGX SuperPOD硬件由一个完整的数据中心平台补充,包括计算、存储、网络、软件和基础设施管理。
Nvidia软件
Nvidia还强调了其不断增长的AI模型扩展软件组合,重点是汽车和工业应用的模型,其中包括物理AI。物理AI的一个简单解释是它遵循物理定律,如运动、速度、时间等。Nvidia正在专注于自动驾驶汽车和机器人作为开发物理AI软件和系统的第一个领域。
Nvidia围绕其GPU平台有一个令人印象深刻的生态系统,包括由于CUDA平台在GPU软件中的普及而领先的软件生态系统。下图显示了与Vera Rubin平台一起工作的CUDA-X库。
CUDA平台涵盖了编程模型、核心库和通信堆栈,加速应用程序并展示机架规模系统的功能。开发者可以使用Nvidia的Collective Communications Library(NCCL)、Inference Transfer Library(NIXL)和其他NVLink感知软件,将Rubin GPU编程为单独的设备或作为单个72-GPU NVLink域的一部分。这种设计使模型能够在机架上扩展,而无需自定义分区、拓扑感知的变通方法或手动编排。
Nvidia的培训和定制堆栈的核心是NeMo框架。它为构建、调整、对齐和部署大型AI模型提供了一个端到端的工作流程。NeMo将数据整理、大规模分布式培训、对齐和参数定制统一为一个面向生产的框架。
这些库和软件平台使开发者可以专注于模型行为,而不必进行特定于硬件的调优,同时仍能从底层GPU平台获得优异的性能。
Nvidia AV生态系统
下图显示了Nvidia的AV生态系统,如Jensen Huang于2026年1月5日的主题演讲中所展示的。左边列出了九家拥有AV软件平台的公司。有三家美国公司:Aurora、Nuro和Plus。Plus在中国有重要的业务。Waabi总部在加拿大,但主要在美国运营。Wayve是一家英国公司,有欧洲和美国的测试活动。其余五家公司位于中国:Deeproute.ai、Momenta、Pony、WeRide和Zyt。
图表中间列出了Nvidia的11家原始设备制造商(OEM)和移动平台。再次,大多数公司位于中国,只有两家欧洲OEM(梅赛德斯-奔驰和Stellantis)和Uber是唯一的美国公司。在2026年CES上宣布了几家新的OEM客户,包括JLR和Lucid。
右侧列出了14家一级供应商和硬件合作伙伴。主要的一级供应商包括Aumovio(前 Continental)、Bosch、Denso、Magna和ZF。
总结与展望
CES仍然是电子产品(包括汽车电子和自动驾驶汽车)的主要贸易展,机器人出租车吸引了最多的关注。参展商数量超过4100家,比2025年减少了400家,主要是由于中国参与度显著下降。参观人数达到148,000人,比前一年的141,000人有所增加。
Nvidia在2026年CES上占据主导地位,并宣布了许多新产品或升级版的其他产品。Vera Rubin平台的六种芯片将对AI技术产生重大影响,包括自动驾驶汽车和机器人等物理AI。
Nvidia的六种新芯片旨在增强运行训练和推理模型的AI系统的机架性能。为此,Nvidia利用了其从设计和运行AI模型中获得的知识,从芯片到系统。Nvidia参考的论文提供了有关所有六种Rubin平台芯片的广泛数据和详细信息。它还展示了Vera Rubin平台如何用于构建IT数据中心的新AI系统,用于AI模型的训练和推理。Nvidia将这些数据中心称为AI工厂。
下一张图片是Nvidia的Vera Rubin平台的总结——从芯片及其在子系统、系统和AI工厂中的使用方式。它是系统构建的简化框图。
下一张图片的左侧显示了Vera Rubin平台中的六种芯片,以及之前部分中包含的摘要信息。中间的绿色方块显示了三个重要的子系统。Vera Rubin超级芯片有两个Rubin GPU和一个Vera CPU。两个Vera Rubin超级芯片与两个ConnectX-9芯片和一个BlueField-4 DPU一起用于Vera Rubin计算托盘。
Vera Rubin NLV72机架系统,位于蓝色方块中,使用18个计算托盘和9个NVLink交换托盘。这些硬件加起来有36个Vera CPU和72个Rubin GPU芯片。NLV72机架系统拥有惊人的220万亿个晶体管,来自所有芯片和子系统。将这个数字放在眼前:目前世界人口约为81.7亿,一个Nvidia Vera Rubin NLV72相当于地球上每个人有26,900个晶体管。对于美国人口来说,同一系统相当于每人约640,000个晶体管。
顶部红色块显示,一个带有DGX Vera Rubin NVL72的Nvidia DGX SuperPOD使用八个NVL72机架。预计AI工厂将部署数百个DGX SuperPODs。
回顾Nvidia在2026年CES的产品介绍,让我印象深刻的是Nvidia所获得的巨大能力——从领先芯片到服务于AI工厂的计算机系统。Nvidia展示了最先进的芯片,子系统硬件构建块可以扩展为复杂的AI专用计算机系统和机架系统,成为AI专用IT中心的主要驱动力。此外,Nvidia还提供了补充其硬件产品的软件平台,并且愿意为许多行业创建广泛的生态系统。在我40多年分析以计算机为中心的行业中,我从未见过一家公司获得如此广泛的专业知识和经验,以利用、使用并发展它。
Nvidia未来将面临越来越多的竞争,但由于其覆盖硬件和软件层次结构多个层面的广泛平台战略,它将在很长一段时间内保持领先地位,即使AI泡沫破裂。
www.eic.net.cn
易IC库存管理软件

|
|
|
|
TOP
©Copyright www.eic.net.cn 2003-2026 BeiJing MengKaiGuan Software Exploiture Co.,Ltd. All Rights Reserved.    北京梦开关科技有限公司
IC元器件库存管理软件 IC元器件库存管理系统 IC元器件管理软件 IC元器件进销存 IC元器件库存管理软件 IC元器件库存管理系统 快递查询接口
QQ: 880717
18500810082