谷歌与英伟达的AI竞赛:卖铲子与造工厂的路径分野
2026/04/24 07:42阅读量 4
谷歌通过自研TPU芯片、Gemini模型及云服务构建全栈AI体系,与专注售卖GPU算力的英伟达形成差异化竞争。第八代TPU将训练与推理拆分,配合Anthropic等头部客户的大额签约,证明替代路径在经济性上的可行性。尽管英伟达短期仍占主导,但谷歌凭借万亿级Token消耗规模与系统级解决方案,正在重塑AI基础设施的竞争格局。
事件概述
在2026年3月的GTC大会与4月的Google Cloud Next大会上,英伟达CEO黄仁勋与谷歌CEO桑达尔·皮查伊分别提出了关于AI算力供给与消耗的宏大叙事。两者虽同处AI浪潮中心,却采取了截然不同的商业逻辑:英伟达致力于成为“生产资料”(GPU)的垄断供应商,而谷歌则选择自建“AI工厂”,打通从底层芯片到上层应用的全栈体系。
核心信息
1. 商业模式分野:卖铲子 vs 造工厂
- 英伟达(卖铲子):专注于通用算力芯片销售。其数据中心业务2025年收入超1150亿美元,毛利率75%,在全球AI加速器市场占据约80%份额。CUDA生态汇聚超600万开发者,构成了强大的软件壁垒。
- 谷歌(造工厂):采用“自研TPU + Gemini模型 + 云服务”的全栈模式。云业务年收入近600亿美元,AI需求驱动增长50%。谷歌不仅是算力使用者,更是产能输出者,本质是搭建完整生产体系后对外输出服务。
2. TPU战略转向:训练与推理分家
谷歌在Cloud Next上发布了第八代TPU,首次将训练与推理任务拆分为独立芯片,以应对Agent时代的需求变化:
- TPU 8t (Sunfish):专用于训练,采用台积电2nm工艺,单超级Pod峰值算力达121 EFLOPS(FP4精度),较上一代提升2.8倍,旨在缩短前沿模型开发周期。
- TPU 8i (Zebrafish):专用于推理,由联发科设计,性价比提升80%,操作延迟降低最高5倍,针对高并发、低延迟的Agent调用场景优化。
- 战略动机:随着每分钟Token消耗量从100亿跃升至160亿,推理端的效率直接决定成本结构。单一芯片兼顾两端已无法满足需求,集群优化比单芯片性能更为关键。
3. 头部客户倒戈与经济优势
TPU正从内部工具走向外部市场,并成功撬动英伟达的核心客户群:
- 重大签约:Anthropic签署多年期协议,计划使用多达100万颗Ironwood TPU,价值数百亿美元;Meta考虑于2027年部署TPU。
- 成本碾压:Ironwood TPU的总拥有成本(TCO)比英伟达B200低30%-41%。当推理成本被压至对手一半以下时,经济驱动力开始松动CUDA的软件生态壁垒。
4. 规模效应与需求侧统治力
谷歌自身已成为全球最大的Token消费者,日均处理量达万亿级(含搜索、广告、YouTube推荐等),远超单一模型公司(千亿级/天)。
- 成本驱动创新:作为最大用户,谷歌每降低一分钱的推理成本都能直接转化为利润,这种内生动力使其对TPU性价比的优化远超外部客户。
- 对抗逻辑:英伟达定义产能(供给侧),谷歌吞下产能(需求侧)。长期来看,巨大的需求规模将反过来塑造供给标准。
5. 竞争终局展望
- 短期格局:英伟达凭借CUDA生态和80%市占率仍占绝对优势,预计2027年全球算力需求至少1万亿美元。
- 长期趋势:谷歌通过Agent平台(如苹果Siri、GE智能体等)证明系统级解决方案的价值。竞争维度已从“是否有算力”转向“算力如何被高效利用”。
- 结论:这并非零和博弈,而是两种模式的共存。英伟达是石油行业的“钻头商”,谷歌则是“炼化零售一体化巨头”。谷歌证明了替代路径的可行性,打破了英伟达作为“唯一选择”的垄断地位。
