英伟达GTC 2026:黄仁勋发布Vera Rubin系统,预言2027年营收破万亿美元
在GTC 2026大会上,英伟达CEO黄仁勋发布了由7种芯片组成的下一代AI计算系统Vera Rubin,宣称其算力密度较前代提升显著,并预测公司2027年营收将至少达到1万亿美元。会议同时推出了Groq LPU与Rubin GPU协同的分离式推理方案,以及定义Agent操作系统的OpenClaw平台。此外,英伟达还预告了支持铜光混合扩展的Feynman架构及太空数据中心Space One计划。
事件概述
英伟达GTC 2026大会展示了从单一芯片向全栈系统计算的转型。黄仁勋通过回顾过去25年的技术演进,重点介绍了支撑未来AI基础设施的核心硬件与软件生态,并基于当前需求趋势给出了激进的营收预测。
核心信息
1. Vera Rubin:十年千万倍加速的系统级突破
Vera Rubin被定义为英伟达有史以来最复杂的AI计算系统,由7种芯片和5种机架垂直集成而成,旨在解决算力密度瓶颈。
- 性能指标:相比十年前的DGX-1(170 TFLOPS),新系统达到3.6 ExaFLOPS,算力增长四千万倍;在1GW功率限制下,Token生成速率从200万提升至7亿,两年内实现350倍增长。
- 七大组件:
- Rubin GPU:全新架构,支持NVLink 72全互联,提供3.6 exaflops算力和260TB/s全对全带宽。
- Vera CPU:全球首款采用LPDDR5的服务器处理器,单线程性能与能效比优异。
- Groq LP30:第三代确定性数据流处理器,配备500MB片上SRAM,专为推理设计。
- BlueField 4 DPU + CX9网卡:构建AI原生存储基础设施。
- NVLink Switch:第六代交换芯片,支持大规模MoE模型通信。
- Spectrum X CPO交换机:全球首款量产共封装光学(CPO)交换机,实现电子直接转光子。
- 散热与互联革新:采用100%液冷方案,NVLink交换机浸泡其中;取消外部线缆,改为板级/背板式集成互联,安装时间从两天缩短至两小时。
2. Groq整合:分离式推理架构
英伟达于2025年底收购的推理芯片公司Groq正式融入生态,形成“高吞吐归Rubin,低延迟归Groq”的协同模式。
- 技术原理:利用Dynamo推理框架拆分流水线。Pre-fill和Attention计算量大,交由Vera Rubin处理;Decode阶段对带宽和延迟敏感的任务卸载给Groq。
- 性能提升:两颗处理器通过以太网紧密耦合,延迟减半,在最高价值推理层级吞吐量再提升35倍,解锁千token/秒级别的极速生成能力。
- 部署情况:Groq 3芯片由三星代工,预计Q3出货;首个Vera Rubin机架已在微软Azure云上运行。
3. Token工厂经济学与OpenClaw操作系统
黄仁勋提出了一套基于Token吞吐量和速率的商业模型,并将开源项目OpenClaw定义为AI时代的操作系统。
- 商业分层:
- 免费层:高吞吐、低速率,用于获客。
- 中间层:$3-$6/百万Token,服务普通用户。
- 高级层:$45/百万Token,大模型深度推理。
- 顶级层:$150/百万Token,超长研究任务及关键路径实时响应。
- 基准测试:Semi Analysis实测显示,Grace Blackwell NVLink 72的每瓦Token吞吐量比Hopper H200高出50倍,验证了“每瓦性能决定一切”的逻辑。
- OpenClaw定位:作为Agent计算机的操作系统,提供资源管理、调度系统和多模态I/O功能。企业版NeMo Claw已加入策略引擎、网络护栏和隐私路由器以保障安全。
- 未来愿景:每家SaaS公司将转型为Agent-as-a-Service公司;工程师年薪之外将配套年度Token预算。
4. 未来规划与太空算力
- Feynman架构:预告下一代GPU、LPU(LP 40)和CPU(Rosa),首次支持铜线与光学封装的水平扩展,配合Kyber技术提升容量与带宽。
- Space One:与合作伙伴联合开发部署在近地轨道的数据中心计算机,利用辐射散热解决太空中无对流、无传导的散热难题,开启“太空算力”篇章。
关键结论
- 营收预测:英伟达预计2027年营收至少达到1万亿美元,覆盖Blackwell和Rubin到2027年的订单,实际需求可能更高。
- 行业影响:摩尔定律在算力密度上的边际效应递减,散热与互联成为新瓶颈;英伟达通过系统级优化(液冷+CPO+异构计算)重新定义了AI基础设施标准。
- 生态变革:AI应用逻辑从感知、生成转向执行,Agent将成为新的计算单元,重塑企业IT架构与招聘模式。
