湖州异型材设备 老黄All in物理AI!新GPU能5倍提升,还砸掉了智驾门槛

塑料管材设备

刚刚,英伟达 CEO 黄仁勋穿着鳄鱼皮夹克湖州异型材设备,在全球大消费电子展 CES 2026 上发布 AI 新品。

这是五年来,英伟达次来到 CES 却没有发游戏显卡,态度很明确:

全力搞 AI。

全力搞出来的结果也让围观群众直呼:竞争对手如何追上英伟达?

下一代 Rubin 架构 GPU 推理、训练能分别是 Blackwell GB200 的 5 倍和 3.5 倍(NVFP4 数据格式)。

除此之外,老黄还带来了五大域的全新发布,包括:

面向 Agentic AI 的 NVIDIA Nemotron 模型家族

面向物理 AI 的 NVIDIA Cosmos 平台

面向自动驾驶开发的全新 NVIDIA Alpamayo 模型家族

面向机器人域的 NVIDIA Isaac GR00T

面向生物医学的 NVIDIA Clara

同时,英伟达宣布持续向社区开源训练框架以及多模态数据集。其中数据集包括 10 万亿语言训练 token、50 万条机器人轨迹数据、45.5 万个蛋白质结构、100TB 车辆传感器数据。

这次的核心主题,直指物理 AI。

用网友的话来说:

这是英伟达将护城河从芯片层进一步拓展到全栈平台层(模型 + 数据 + 工具)的体现,通过这种方式可以持续拉动更多 GPU 与基础设施投入,并显著增强用户与生态的锁定。

值得一提的是,咱国产开源模型又双叒被 cue 到了。

老黄在演讲开篇便提及了 DeepSeek,Kimi K2、Qwen 也出现在 PPT 展示页上。

正式推出 Vera Rubin NVL72

老黄正式推出英伟达下一代 AI 数据中心的机柜架构 Vera Rubin,披露架构细节。

六大核心组件共同构成 Vera   Rubin NVL72 机架:

Vera CPU、Rubin GPU、NVLink 6 switch、ConnectX-9 SuperNIC、BlueField-4 数据处理单元(DPU)、Spectrum-6 Ethernet switch。

在 NVFP4 数据类型下,Rubin GPU 推理能可达 50 PFLOPS,是 Blackwell GB200 的 5 倍;NVFP4 训练能为 35 PFLOPS,是 Blackwell 的 3.5 倍。

为支撑这些计算能力,每颗 Rubin GPU 封装了 8 组 HBM4 内存,提供 288GB 容量和 22 TB/s 的带宽。

随着主流大模型转向 MoE 架构,模型得以相对高地进行规模扩展。然而,这些家模块之间的通信,对节点间带宽提出了高要求。

Vera Rubin 引入了用于规模内扩展网络的 NVLink 6。

它将单 GPU 的互连带宽提升至 3.6 TB/s(双向)。每颗 NVLink 6 交换芯片提供 28 TB/s 的带宽,而每个 Vera Rubin NVL72 机架配备 9 颗这样的交换芯片,总规模内带宽达到 260 TB/s。

NVIDIA   Vera CPU 集成了 88 个定制的 Olympus Arm 核心,采用英伟达称为" spatial multi-threading "设计,多可同时运行 176 个线程。

用于将 Vera CPU 与 Rubin GPU 进行一致连接的 NVLink C2C 互连,其带宽提升了一倍,达到 1.8 TB/s。每颗 Vera CPU 可寻址多 1.5 TB 的 SOCAMM LPDDR5X 内存,内存带宽高可达 1.2 TB/s。

为将 Vera Rubin NVL72 机架扩展为每组 8 个机架的 DGX SuperPod,英伟达推出了一对采用共封装光学(CPO)的 Spectrum-X 以太网交换机,均基于 Spectrum-6 芯片构建。

每颗 Spectrum-6 芯片提供 102.4 Tb/s 的带宽湖州异型材设备,英伟达基于该芯片推出了两款交换机。

SN688 提供 409.6 Tb/s 的总带宽,支持 512 个 800G 以太网端口或 2048 个 200G 端口。

SN6810 则提供 102.4 Tb/s 的带宽,可配置为 128 个 800G 或 512 个 200G 以太网端口。

这两款交换机均采用液冷设计,英伟达表示,与不具备硅光子技术的硬件相比,它们在能、可靠和运行时间方面表现更优。

随着上下文窗口扩展到数百万 token,英伟达还指出,存储 AI 模型交互历史的键值缓存(KV cache)相关操作,已成为推理能的瓶颈。

此前黄仁勋曾表态:没有 HBM,就没有 AI 算。

为突破这一限制,英伟达推出新硬件 BlueField-4 DPU,构建了一个新的内存层级,称为推理上下文内存存储平台(Inference Context Memory Storage Platform)。

英伟达表示,这一存储层旨在实现键值缓存数据在 AI 基础设施中的高共享与复用,从而提升系统响应速度和吞吐能力,并实现 Agentic AI 架构可预测、能友好的规模扩展。

这是 Vera Rubin 次将英伟达的可信执行环境扩展至整个机架级别。

整体来看,每个 Vera Rubin NVL72 机架可提供:

3.6   exaFLOPS 的 NVFP4 推理能

2.5   exaFLOPS 的 NVFP4 训练能

54 TB 的 LPDDR5X 内存(连接至 Vera   CPU)

20.7 TB 的 HBM4 内存,带宽达 1.6 PB/s

为保障机架系统的持续高运行,英伟达在机架层面引入了多项改进,包括无缆化模块托盘设计,使组件更换速度显著快于此前的 NVL72 机架;增强的 NVLink 弹能力,实现零停机维护;以及二代 RAS 引擎,可在不中断服务的情况下完成健康检测。

另外,英伟达表示,与 Blackwell 相比,塑料挤出设备Vera Rubin 在训练 MoE 模型时所需的 GPU 数量仅为四分之一;在 MoE 推理场景下,其每 token 成本高可降低 10 倍。

反过来看,这也意味着 Rubin 能在相同机架空间内,大幅提升训练吞吐量,并生成远多于以往的 token 数量。

据介绍,目前用于构建 Vera Rubin NVL72 所需的六类芯片已全部从晶圆厂交付,英伟达预计将在 2026 年下半年启动 Vera Rubin NVL72 的规模化量产。

自动驾驶全新开源模型系列发布

再来看英伟达重磅推出的全新开源模型系列——Alpamayo,面向安全推理的自动驾驶。

全球款开源、大规模的自动驾驶视觉 - 语言 - 行动(VLA)推理模型 Alpamayo 1,参数 100 亿。

它能够让自动驾驶车辆理解周围环境,并对自身的决策行为做出解释。

模型接收车辆自身的运动历史数据、多摄像头采集的实时画面、用户指令三类输入信息,然后进行推理,之后生成具体的驾驶决策、因果推理结果、规划出的行驶轨迹。

配套推出的还有一款开源仿真框架—— AlpacaSim。

它支持在各种不同的环境与边缘场景中,对基于推理的自动驾驶模型进行闭环训练与评估。

此外,英伟达还发布了一个包含1700 小时驾驶数据的开源数据集。这些数据采集于全球广泛的地理区域与环境条件下,涵盖了推进推理架构发展所需的罕见及复杂真实边缘场景。

落地方面,据介绍,Alpamayo 将率先搭载于 2025 年二季度欧洲上市的梅赛德斯 - 奔驰 CLA 车型,后续将通过 OTA 升级逐步推送高速公路脱手驾驶、城市全场景自动驾驶、端到端自动泊车等功能,并计划登陆美国市场。

英伟达基于自身技术构建的全球 L4 级自动驾驶与 Robotaxi 生态系统全景也亮相了,通过连接软件开发商、整车厂 / 出行平台、硬件供应商,覆盖全产业链。

Nemotron 再推项模型

NVIDIA Nemotron 在 AI 智能体域的新拓展,核心是在已发布的 Nemotron 3 开放模型与数据基础上,进一步推出针对语音、RAG以及安全三大场景的项模型。

其中,Nemotron Speech包含新的自动语音识别(ASR)模型,不仅语音识别能强,而且能支持实时字幕生成这样的实时低延迟场景,速度比同类模型快 10 倍。

英伟达表示,目前博世已采用该模型实现司机与车辆之间的交互。

Nemotron RAG则搭载新的视觉语言模型,能处理多语言、多模态数据,有提升文档搜索率。

手机:18631662662(同微信号)

Nemotron Safety系列模型注于增强 AI 应用的安全与可信度,具体包括支持更多语言的 Llama Nemotron 内容安全模型,以及高精度检测敏感数据的 Nemotron PII 模型。

机器人推理大脑 Cosmos 升级

活动现场,老黄宣布英伟达为机器人推出的懂推理的"大脑" Cosmos 再度升级。

Cosmos 主要被用来生成符现实世界物理规律的成数据,自发布以来,已被 Figure、Agility Robotics、通用汽车等一众知名机器人和自动驾驶公司采用。

这次全新发布了:

Cosmos Reason 2:一款全新的、排名先的视觉 - 语言推理模型(VLM)。它能够帮助机器人与 AI 智能体更地感知、理解并与物理世界进行交互。

Cosmos Transfer 2.5 与 Cosmos Predict   2.5:两款先的模型,可在各种不同的环境与条件下,生成大规模的成。

英伟达还基于 Cosmos 模型,为各类物理 AI 应用推出了用的开源模型与参考蓝图:

Isaac GR00T   N1.6:一款为类人机器人打造的开源视觉 - 语言 - 行动(VLA)推理模型。它支持机器人的全身控制,并集成了英伟达 Cosmos Reason 模型,以实现更强大的推理能力与上下文理解能力。

NVIDIA AI Blueprint for Video Search and Summarization:作为英伟达 Metropolis 平台的一部分,该蓝图提供了一套参考工作流,可用于构建视觉 AI 智能体。这些智能体能够分析大量的录播及直播,从而提升运营率并保障公共安全。

据了解,Salesforce、Milestone、Hitachi、Uber、VAST Data、Encord 等企业正采用 Cosmos Reason 模型,开发面向交通与职场生产力提升的 AI 智能体。Franka Robotics、Humanoid 和 NEURA Robotics 则利用 Isaac GR00T 模型,在机器人大规模量产前,对其全新行为进行仿真、训练与验证。

针对医疗健康与生命科学的 AI

NVIDIA Clara 是门针对医疗健康与生命科学域的 AI 技术工具。

核心目标是降低行业成本、加速治疗方案落地,打通数字科研与实际医疗应用之间的壁垒。

该系列中的多款项模型各有侧重:

La-Proteina 能设计原子级精度的大型蛋白质;

ReaSyn v2 在药物发现阶段就开始考虑"如何生产"的问题;

KERMT 可以预测潜在药物进入人体后的反应,提前排查安全问题;

RNAPro 用来预测 RNA 分子复杂的 3D 结构,推进个化医疗方案。

模型之外,老黄表示英伟达还将为研究者提供含 45.5 万个成蛋白质结构的数据集。

总之,老黄的 2026 开年一讲,真是让人眼花缭乱了……

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—  完  —

量子位智库 2025 年度「AI 100」榜单正式开启招募!

和我们一起在日新月异的 AI 产品市场中厘清背后脉络,把握未来动向,找到真正代表中国 AI 实力的巅峰力量 � �

一键关注 � � 点亮星标

科技前沿进展每日见湖州异型材设备