英伟达以全栈开源策略重塑AI生态,DeepSeek激活国产算力供应链

英伟达在GTC 2026前夕发布Nemotron 3 Super模型,通过公开权重、数据集及完整训练流程,构建了比单纯开放权重更彻底的“开源开发平台”。该模型采用NVFP4格式与混合架构,旨在绑定Blackwell硬件并推动GPU生态依赖。与此同时,中国DeepSeek等开源模型通过适配国产芯片,在应用层激活了华为昇腾、海光等本土算力供应链的需求。

事件概述

英伟达(NVIDIA)于GTC 2026召开前发布开源模型Nemotron 3 Super,其开放程度涵盖模型权重、预训练数据集及完整训练评估方案。这一举措被黄仁勋视为“激活整个技术栈”的关键,旨在通过极致的透明度巩固全球开发者对英伟达计算生态的依赖。

核心信息:Nemotron 3 Super 技术细节

  • 架构与性能:总参数量1200亿,MoE架构下活跃参数120亿。采用混合Mamba-Transformer主干网,内存和计算效率提升4倍;支持百万token上下文,具备长期记忆与高精度推理能力。
  • 数值精度优化:预训练阶段主要使用英伟达独有的4位浮点格式NVFP4(针对Blackwell架构优化),相比FP8显著降低内存需求并加速推理,同时保持精度。
  • 数据规模
    • 预训练数据:10万亿整理token + 100亿推理token + 1500万道编程题。
    • 后训练数据:4000万条监督和对齐样本(覆盖推理、指令遵循、安全等任务),其中约700万条用于SFT(监督微调)。
  • 强化学习环境:公布包含21种环境配置和37个数据集的交互式强化学习训练方案,生成约120万条环境rollout,涵盖软件工程师智能体及工具增强搜索规划任务。
  • 部署方式:通过NVIDIA NIM打包,支持vLLM、Google Cloud Vertex AI、Oracle Cloud等平台,可从工作站至云端随处运行。

战略分析:从模型竞赛转向平台竞赛

英伟达的“老谋”:卖铲子而非挖金矿

英伟达的核心商业模式并非销售模型本身,而是依托GPU、CUDA软件栈及数据中心系统构建算力平台。Nemotron 3系列的推出具有三重战略意图:

  1. 开源作为销售杠杆:模型越开放、部署越广泛,对H100/H200/Blackwell GPU的需求越大。通过NIM将模型标准化,确保跑模型所需的硬件必须依赖英伟达体系。
  2. 架构创新绑定硬件:NVFP4等核心技术专为Blackwell架构原生优化,使得该模型在英伟达硬件上的性能远超其他平台,从而在全球范围内“传授”一套向英伟达倾斜的技术路线。
  3. 抢占技术话语权:通过比竞争对手(如DeepSeek)更透明的开源姿态(公开数据与流程),聚拢全球研究者与企业开发者,围绕英伟达生态构建护城河。

DeepSeek的“深算”:激活国产算力链

与中国开源模型主要采取“开放权重”策略不同,DeepSeek等模型虽未完全公开数据与流程,但其在中国市场扮演了独特的角色:

  • 生态激活:DeepSeek通过广泛应用强大的推理模型,加速了应用层普及,进而增加了对底层训练、基础设施和芯片的需求。
  • 国产背书:DeepSeek主动适配国产芯片(如华为昇腾、海光、寒武纪等),为国产算力供应链提供了关键背书。每一个基于其开源版本进行应用开发的开发者,都在无形中引导算力需求流向国产硬件。
  • 未来展望:AI产业竞争正从单一模型能力的比拼,转向完整、高效、可扩展的计算与应用生态系统之争。对于DeepSeek而言,其价值不仅在于发布新模型,更在于如何在中国AI生态中持续发挥激活作用。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。