英伟达GTC大会:从芯片到太空的全栈AI布局与万亿营收目标
英伟达在GTC大会上宣布2025至2027年AI芯片营收目标超1万亿美元,并展示从训练、推理到智能体、自动驾驶及太空计算的完整生态。核心硬件Vera Rubin平台集成七类芯片,结合收购的Groq LPU实现推理效率飞跃;同时推出NemoClaw开源框架与Nemotron联盟,强化软件生态控制力。此外,英伟达还发布了面向L4自动驾驶、AI工厂数字孪生及轨道计算的最新解决方案。
事件概述
英伟达(NVIDIA)在GTC大会上展示了其从单一芯片供应商向全栈AI基础设施提供商转型的战略蓝图。CEO黄仁勋提出,在AI时代“token是新的货币”,目标是2025年至2027年间实现AI芯片营收超过1万亿美元。此次发布会涵盖了训练、推理、智能体(Agent)、物理AI、机器人、自动驾驶及太空计算等全领域产品与技术。
核心信息
1. Vera Rubin平台:七合一超级计算机
- 架构组成:Vera Rubin平台由七颗芯片协同工作,包括Vera CPU、Rubin GPU、NVLink 6交换芯片、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6以太网交换芯片以及新整合的Groq 3 LPU。
- 性能表现:核心产品Vera Rubin NVL72机架集成72颗Rubin GPU和36颗Vera CPU。相比Blackwell平台,训练大型混合专家模型所需的GPU数量减少至四分之一,推理吞吐量每瓦提升10倍,每token成本降至十分之一。
- 未来规划:预告下一代Kyber架构将于2027年推出,采用垂直托盘设计以提升密度并降低延迟,搭载于Vera Rubin Ultra上。
2. Groq LPU与推理革命
- 技术路线:将大语言模型推理拆分为预填充(Prefill,计算密集型)和解码(Decode,带宽密集型)两个阶段。Rubin GPU负责Prefill,Groq 3 LPU专攻Decode。
- 硬件优势:Groq 3 LPU内置500MB SRAM,带宽达150TB/s,是Rubin GPU中HBM带宽的近7倍。256颗Groq 3 LPU组成的LPX机架与Vera Rubin NVL72并排部署,在万亿参数模型上实现每兆瓦推理吞吐量提升35倍。
- 收购背景:英伟达于2025年底以200亿美元收购了Groq的核心资产,将其技术正式纳入自身推理体系。
3. NemoClaw与开源生态
- NemoClaw:基于OpenClaw推出的优化版本,提供安全沙箱(OpenShell)和混合模型调度。支持本地运行Nemotron等开源模型处理隐私任务,通过隐私路由器调用云端前沿模型。
- Nemotron联盟:联合Mistral AI、Black Forest Labs、Cursor、LangChain等公司组建开源模型联盟。首个项目是由Mistral AI与英伟达联合训练基础模型,并在DGX Cloud上训练后开源发布,旨在巩固英伟达在开源生态中的硬件核心地位。
4. 自动驾驶与太空计算
- 自动驾驶:比亚迪、吉利、日产、五十铃接入DRIVE Hyperion平台开发L4级车辆;Uber计划2028年前在28个城市部署全栈自动驾驶车队。发布Alpamayo 1.5模型,支持通过自然语言提示调整驾驶轨迹。
- 太空计算:推出Space-1 Vera Rubin Module,专为太空环境设计。相比H100,在轨道推理场景下提供25倍的AI算力提升,可直接运行大语言模型处理卫星数据流。配套IGX Thor和Jetson Orin平台已用于卫星视觉与导航。
5. AI工厂与存储革新
- 数字孪生:发布DSX Air SaaS平台,允许客户在虚拟环境中模拟AI工厂,将部署时间从数周缩短至几天。配合DSX Max-Q动态功率分配技术,可在固定电力下多部署30%的AI基础设施。
- 存储架构:推出BlueField-4 STX存储架构及CMX上下文记忆存储平台,专为智能体上下文记忆优化。相比传统存储,CMX提供5倍的每秒token吞吐量、4倍的能效提升和2倍的数据摄取速度。
6. 游戏图形突破
- DLSS 5:引入实时神经渲染模型,能生成照片级真实的光照和材质效果,而非仅提升帧率。《星空》、《生化危机》、《刺客信条:影》等厂商已确认支持,预计今年秋季推出。
