开云体育 一文读懂英伟达GTC 2026:芯片全家桶上线,给“龙虾”装安全围栏 头像

发布日期:2026-03-20 03:20    点击次数:71

开云体育 一文读懂英伟达GTC 2026:芯片全家桶上线,给“龙虾”装安全围栏 头像

  文丨李海伦 苏扬

  裁剪丨徐青阳

北京时期 3 月 17 日凌晨,英伟达(股票代码:NVDA)GTC2026 大会拉开帷幕。看周密球 AI 产业最受感情的年度时刻之一,GTC 大会被称为" AI 春晚",其中黄仁勋的主题演讲亦备受感情。

大会之前,黄仁勋抛出过一个产业模子为 GTC 预热,指出" AI 是一块五层蛋糕(AI is a Five-Layer Cake)",从底座朝上永别为:动力、电力,芯片、算力基础设施,再到模子与应用,AI 还是变成一个全新的产业时候栈,并正在激勉东谈主类历史上限制最大的基础设施建造之一。

黄仁勋说:"这次大会将袒护东谈主工智能五层架构的每一层,天然还有最紧要的一层,亦然最终真确推动这个行业升空的——应用。"

黄仁勋指出,跟着推理需求的爆发,正在推动英伟达的市集限制和客户结构同步膨胀。

回望 2025 年 10 月的华盛顿 GTC 大会,黄仁勋曾指出,到 2026 年底,英伟达凭借现存及未来的数据中心芯片,将撬动约 5000 亿好意思元的收入限制。

这次 GTC 的演讲台上,老黄再次给出预判:几个月后,跟着 Blackwell 与 Rubin 架构的全面奋力,他所猜测的市集契机已翻倍逾越。他明确示意,瞻望到 2027 年底,英伟达新一代 AI 芯片的累计营收将认真跨入 1 万亿好意思元时间。

本次 GTC 2026 发布的最中枢主题——以 Vera Rubin 为代表的"芯片全家桶",组成了这一代 Vera Rubin 机架的系统级基础设施,其中包括:Vera CPU、Rubin GPU、NVLink 6 Switch(高速互联)、ConnectX-9 SuperNIC(超等网卡)、BlueField-4 DPU(数据处理单位)、Spectrum-6 以太网交换机。

英伟达以致还准备将 AI 算力"奉上天",推出头向轨谈环境运行的 Vera Rubin Space Module,用于支握卫星和空间任务中的边际智能计较。

值得耀眼的是,这次 GTC,Groq 3 LPU 推理加快器也完成了首秀。

此前,2025 年 12 月,英伟达以约 200 亿好意思元完成了对 Groq 中枢时候钞票的收购,Groq 首创东谈主 Jonathan Ross 加入英伟达担任首席软件架构师,Groq 3 LPU 恰是这笔收购认真落地的第一个公开恶果。

另外,席卷中好意思两地征战者社区的"龙虾热",在本次 GTC 上也得回了体现。

黄仁勋推出头向 OpenClaw 生态的 NemoClaw 决策,在 OpenClaw 原有智能体才智的基础上,叠加了 NVIDIA Nemotron 洞开模子,不错让龙虾更智谋,同期内置一套及时安全管控机制,相当于给智能体配了一个全程在线的"保安"。

所有这个词 2 个多小时下来,英伟达 GTC 给东谈主"系统级"主意印象格外深切:早期凸起的是算力、互联,到最近两年强化对系统级才智,以致是 AI 工场这种笼统型基础设施的探索,是以民众会看到,黄仁勋在大会上已不再是单纯强调单一的算力芯片,拔旗易帜的"芯片全家桶"、"算力全家桶"这种系统级解决决策。

01. Vera Rubin 平台:推理效率普及 10 倍,token 资本降至十分之一

黄仁勋先容 Vera Rubin:诅咒曩昔,我还能抱得动 GPU 的时候

早在 2024 年 Computex 上,黄仁勋就初次败露了 Rubin 架构,并文书其将接替 Blackwell 成为下一代 AI GPU 架构。随后在 2025 GTC 上,展示了搭载 Vera CPU 与 Rubin GPU 的 Superchip 原型,但那时仍停留在单板级家具阶段。

2026 年 CES,Rubin 初次以完整平台形态出现,由六颗中枢芯片协同使命,组成一台机架级 AI 超等计较机。

而在本次 GTC 2026 上,英伟达又进一步将 Groq 的 LPU 推理架构整合进平台,并初次将 AI 工场、电力转机与智能体运行环境纳入搭伙架构。

Vera Rubin 平台主要芯片和组件包括 Vera CPU、Rubin GPU、NVLink 6 Switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet switch,也包含了新整合的 Groq 3 LPU,组成一台超等 AI 计较机。

相当于把曩昔惟有超大型科技公司才能搭建的 AI 超算才智,作念成了一套可径直部署的圭臬机架。既能教师更大的模子,也能让 AI 像东谈主同样握续使命、更低资土产货处理复杂任务。

黄仁勋示意:" Vera Rubin NVL72 机架:集成 72 颗 Rubin GPU 和 36 颗 Vera CPU,通过 NVLink 6 高速互联。比较上代 Blackwell 平台,NVL72 教师大型搀杂人人(MoE)模子所需 GPU 数目仅为四分之一,推理迷糊量 / 瓦特普及高达 10 倍,单 token 资本降至底本的十分之一"。

黄仁勋指出,Vera Rubin 架构与 LPX 软件平台的深度协同,环球体育将通过单体算力价值的 10 倍跃升,开启高达 3000 亿好意思元的年收入机遇。

02. Vera CPU:专为 Agentic AI 打造的新一代处理器

英伟达认真发布了自研 Vera CPU。

黄仁勋示意,这是全球首款专为" AI 智能体时间"与"强化学习"想象的处理器。该芯片搭载 88 颗自研 Olympus 中枢,性能较传统 CPU 快 50%,能效普及达 2 倍。

Vera CPU 更像是智能体系统背后的"教唆与转机中心"。因为干预 AI 智能体时间后,好多使命并不仅仅生成谜底,还需要同期料理多数并发任务,举例运行强化学习环境、调用外部用具、推论代码、校验数据放肆。这类复杂的编排任务对 CPU 的单线程性能和带宽提倡了前所未有的条目。

也正因为如斯,Vera CPU 的想象重心不仅仅单纯普及算力,而是让多数 AI 环境好像同期融会运行,基于 NVIDIA 空间多线程(Spatial Multithreading)时候,每颗中枢可同期处理两个任务,确保了大限制 AI 管事的反应速率。

Vera CPU 经受 LPDDR5X 内存,带宽高达 1.2TB/s,是同类通用 CPU 的两倍,功耗仅为一半。结合 NVLink-C2C 时候,其与 GPU 间的互联带宽达 1.8 TB/s,是传统 PCIe Gen 6 的 7 倍。

单个 Vera CPU 机架可集成 256 颗液冷决策 Vera CPU,支握突出 22500 个并发线程孤苦满负荷运行,专为大限制" AI 工场"而生。

据先容,现在已诡计部署 Vera CPU 的云客户包括:Meta、Oracle Cloud、CoreWeave 等;制造合作商涵盖戴尔、HPE、瞎想、超微电脑、华硕、富士康等。Redpanda 的测试泄漏,Vera 在处理及时数据流时的延迟抵制了 5.5 倍。干系家具瞻望将于 2026 年下半年上市。

03 Groq 3 LPX/LPU:填补 GPU 推理短板,超低延迟推理加快器

黄仁勋一张 PPT,讲显豁收购 Groq 的逻辑

Groq 3 LPU 芯片是英伟达专为极致低延迟推期许象的全新处理器。

在 AI 智能体时间,推理侧需求正加快分化:大模子教师依赖 GPU 的高迷糊算力,而面对需要极高交互性、超短反当令期的智能体任务,传统 GPU 架构存在性能冗余。为此,英伟达认真引入 LPU 架构,专注于"极致低延迟的 token 生成"。

在硬件想象上,Groq 3 LPU 芯片展现了与传统 GPU 迥然相异的时候阶梯。它抛弃了容量大但延迟相对较高的 HBM 显存,单颗芯片集成了 500MB 的片上 SRAM。固然容量仅为 Rubin GPU 的五百分之一,但其提供的带宽高达 150 TB/s,是 HBM4(22 TB/s ) 的近 7 倍。

基于该芯片,开云体育英伟达推出了 Groq 3 LPX 平台(机架)。该平台经受液冷散热,单个机架配备 256 颗 LPU 处理器,累计提供 128GB 片上 SRAM,总扩展带宽达 640TB/s。LPX 平台看成 Vera Rubin 架构中的要道补皆,专注于承载大限制、高并发的低延迟推理使命负载。

当 Groq 3 LPX 平台与 Vera Rubin NVL72 结合使用时,这种搀杂架构完了了 GPU 强盛算力与 LPU 极致带宽的完竣互补。在百万 token 高下文场景下,其收益后劲可大幅普及。 该芯片及平台瞻望将于 2026 年下半年认真上市。

04 Vera Rubin Space Module:AI 算力飞向天际

官宣了,老黄也要在天际建算力中心

英伟达这次还把 AI 算力径直奉上了天际,发布了成心面向轨谈数据中心(ODC)和天际操作的 Vera Rubin Space Module。

凭证先容,传统卫星的使命模式是拍摄后将海量数据下载到大地处理,但这套历程正被"数据激流"压垮。因为一颗地球不雅测卫星每天可产生数 TB 数据,而星地通讯带宽有限、窗口期短,多数数据积压恭候传输。从拍摄到分析放肆复返可能耗时数小时,错过灾害预警等场景的黄金窗口。

Vera Rubin Space Module 的中枢念念路是边际智能,让卫星在轨完成目的检测和变化分析,只下传有价值的放肆而非原始数据,从而大幅抵制传输压力。

英伟达示意,现在,像 Axiom Space、Planet Labs 这些天际赛谈的头牌公司,已初始用英伟达的加快平台来跑下一代天际任务了。有了这种算力加握,不管是卫星自主运行如故地舆空间智能分析,都将从"慢动作"变成及时反应。

黄仁勋示意:"比较 H100 GPU,Rubin Space Module 在天际推理算力上普及最高 25 倍,真确将数据中心级 AI 算力带入天际"。

05 BlueField-4 STX:AI 原活命储架构

英伟达认真发布 BlueField-4 STX 模块化存储参考架构,其基于 BlueField-4 DPU 和 CMX 存储模块组件,旨在为 AI 智能体的长高下文推理提供底层 KV Cache 存储相沿。

BlueField-4 STX 饰演着 AI 智能体"外部高下文驰念体"的要道变装。它谗谄了传统数据中心存储的性能瓶颈,使智能体在处理超长高下文、跨用具调用及多轮任务配合时,无需频勤劳叠计较,从而确保了推理过程的连贯性与反应速率。

比较传统存储架构,STX 可提供高达 5 倍的 token 迷糊量及 4 倍的能效普及,并将数据经受速率翻倍。

现在,CoreWeave、Oracle ( OCI ) 、Mistral AI 及 Lambda 等首批行业最初者已文书经受 STX 看成其高下文驰念存储决策。干系系统瞻望将于 2026 年下半年认真上市。

06 NemoClaw for OpenClaw:个东谈主 AI 智能体平台

黄仁勋下场,教养龙虾好在哪儿

英伟达面向企业和征战者推出了完整的智能体征战平台 NVIDIA Agent Toolkit。

该平台以开源花式洞开,中枢定位是让 AI 智能体在自主高效完成任务的同期,确保环境的安全可控。

黄仁勋示意,该平台由四大中枢组件组成:

●以 Nemotron 3 Super 为代表的洞开模子(提供 1200 亿参数的长高下文推理才智);

●以 AI-Q 为代表的洞开智能体(负责感知、筹划与推论);

●以 cuOpt 为代表的开抛弃段用具(扩展智能体的专科才智);

●以及 OpenShell 这一开源运行底座,负责管控智能体的行为领域与安全权限。

除了深耕企业级市集,英伟达这次通过发布 NemoClaw 时候栈,认真将触角延长至个东谈主智能体领域。这套决策试验上是为全球增长最快的开源神气 OpenClaw 提供了全栈式的底层软件相沿。

黄仁勋在 GTC 现场直言,NemoClaw 的中枢逻辑在于"极简部署"与"开箱即用",用户仅需单条教唆,即可完成英伟达 Nemotron 模子与 OpenShell 运行时的装配。

黄仁勋以致将其高度评价为"个东谈主 AI 时间的操作系统",预示着软件领域"新文艺回应"的发轫。

安全性被界说为该决策的杀手锏。

其要道组件 OpenShell 构建了一个梗阻沙箱,为智能体提供了受控的运行环境:智能体能看望何种数据、归拢哪些网罗,均受明确的安全护栏管控。

此外,该架构支握"土产货 + 云表"的搀杂模式:明锐任务驻留土产货处理,复杂任务则通过阴事路由器(Privacy Router)调用云表顶端模子,真确完了了阴事保护与计较才智的兼得。

黄仁勋在演讲里特别提到,NemoClaw 具备极强的硬件普适性。它可运行在从耗尽级 RTX PC、使命站到企业级 DGX Station、以致最新的 DGX Spark 全系列硬件上,并支握 24 小时全时在线(Always-on)。这意味着不管是个东谈主征战者如故大型企业,都能在专有环境下部署一套永不离线的"数字雇员",透彻解脱对公有云管事的过度依赖。

07 NVIDIA Dynamo 1.0:AI 工场的"操作系统"

在生成式 AI 与 AI 智能体限制化落地的初期,行业深广靠近中枢瓶颈:数据中心内的 GPU、内存与网罗资源诈欺率碎屑化,转机机制失焦导致推理延迟高、token 生成资本居高不下。企业空有算力集群,却因枯竭高效的协同框架,堕入"部署难、落地贵"的窘境。

英伟达在 GTC 2026 上认真发布的 Dynamo 1.0 开源平台,恰是为破解这一命题而生。

若将数据中心比作一座 AI 工场,Dynamo 即是其"中央操作系统"。它谗谄了硬件间的壁垒,搭伙编排大限制异构资源,使屡见不鲜颗加快芯片完了深度协同。

在 Blackwell 架构下,Dynamo 可将推感性能最高普及 7 倍。

也就是说,基于这种负载优化,企业好像以更少的硬件冗余,相沿更复杂的智能体任务,精确凿中当下"降本增效"的政策刚需。

现在,Dynamo 已构建起宽敞的生态护城河。AWS、Azure、谷歌云及 Oracle Cloud 四大云巨头已完成深度集成;同期,从 Cursor、Perplexity 等 AI 原生新锐到 PayPal 等全球化企业,均已在其推理基座中部署 Dynamo。

08 物理 AI 爆发:机器东谈主任务告捷率翻倍,比亚迪加入英伟达自动驾驶诡计

这次 GTC 2026 开释了一个明晰信号:物理 AI 正在从模子演示转向果真天下的大限制落地。不管是机器东谈主、自动驾驶如故 AI 工场,英伟达都在用一套"算力 + 仿真 + 安全"的底层体系,从新组织现实产业。

黄仁勋示意,英伟达正把物理 AI 像洪流同样推向机器东谈主产业。

现在,全球头部厂商简直都在英伟达一又友圈里,从 ABB、FANUC、KUKA、安川电机这工业四大巨头,到自带流量的 Boston Dynamics 和 Figure,富饶接入了英伟达生态。

通过与 Hugging Face 合作,英伟达将 Isaac 和 GR00T 模子集成到 LeRobot 开源框架中,买通了机器与 AI 征战者之间的壁垒,让上千万征战者能径直参与教师,加快机器东谈主进化。

模子层面,新发布的 Cosmos 3 "天下基础模子"不仅能模拟画面,还能推理物理端正。

同期,东谈主形机器东谈主模子 Isaac GR00T N1.7 认真洞开生意授权,其秉性是让机器东谈主通过看、听、动料理复杂操作。黄仁勋还预报了年底将发布的 GR00T N2,别传它在生分环境中处理新任务的告捷率比现存模子高出一倍以上。

在自动驾驶领域,英伟达的 DRIVE Hyperion 平台已成为车企激动 L4 级自动驾驶的标配,比亚迪、安适、日产等巨头均已明确加入。

此外,英伟达发布了 Vera Rubin DSX AI 工场参考想象,以及配套的 Omniverse DSX 数字孪生蓝图(认真上线),中枢目的是匡助企业在建造 AI 工场前,用凭空环境完整模拟电力、冷却、网罗、计较的协同运行,最大化每瓦产出的 token 数目,缩小投产时期。

结语

再行一代算力芯片、高速网罗、数据存储、处理器,到各种推理加快硬件,再到操作系统、开源 AI 大模子,以及机器东谈主、自动驾驶、工业制造、天际计较、边际 AI 等试验应用,英伟达正在搭建一套完整闭环的 AI 体系。

黄仁勋在演讲里反复传递一个中枢信息:AI 智能体的时间还是来了。英伟达围绕这一方针,从底层硬件到表层生态进行了全面部署。

天然,这套体系的着力是否好像如老黄演讲所说,还需要客户在后续的"落地"过程中考试。

* 特约编译无忌对此文亦有孝顺开云体育。

IM体育官方网站首页