谷歌以基础设施模式破局:TPU拆分与成本优势挑战英伟达垄断

2026/04/24 12:05阅读量 2

谷歌在Google Cloud Next 2026上展示了其独特的AI竞争策略,通过自研TPU芯片和庞大的内部消耗规模,构建了一套不同于英伟达“卖铲子”模式的完整生产体系。谷歌将训练与推理拆分为独立芯片(TPU 8t/8i),显著降低总拥有成本,并成功吸引Anthropic等头部模型公司采用,证明了对英伟达生态的替代可行性。这种从单一算力供应向系统级解决方案的转变,标志着AI竞争维度从硬件性能转向了整体效率与成本控制。

事件概述

2026年3月16日与4月22日,英伟达GTC大会与谷歌Cloud Next大会分别发布了关于AI算力供需的关键信息。英伟达CEO黄仁勋将数据中心定义为“生产Token的工厂”,预测2027年相关市场规模至少达1万亿美元;而谷歌CEO桑达尔·皮查伊则展示了惊人的需求侧数据:谷歌每分钟处理160亿个token(上一季度为100亿),并计划今年投入1750亿至1850亿美元资本开支。这两场会议揭示了两种截然不同的竞争逻辑:英伟达聚焦于供给端的设备销售,而谷歌则致力于构建从底层算力到上层应用的全栈运行体系。

核心信息

1. 商业模式差异:卖铲子 vs. 造工厂

  • 英伟达模式:提供通用GPU作为生产资料。其CUDA生态汇聚超600万开发者及900余个加速库,占据全球AI加速器市场约80%份额。2025财年数据中心业务收入超1150亿美元,毛利率超75%。逻辑是向所有玩家出售设备。
  • 谷歌模式:提供自研TPU芯片、Gemini模型及Cloud平台的一整套运行体系。云业务年收入近600亿美元,年增近50%。逻辑是先跑通自身体系,再将多余产能对外输出,更像是一座完整的“工厂”。

2. TPU架构战略转向:训练与推理分离

  • 历史路径:自2017年TPU v2至2025年v7 Ironwood,谷歌六代产品均采用单颗芯片同时承载训练与推理任务。
  • 最新突破:第八代TPU首次将训练(TPU 8t)与推理(TPU 8i)拆分为两颗独立专属芯片。
  • 驱动因素:Agent时代下,推理任务要求低延迟、高并发,与训练阶段的集中算力需求截然不同。拆分后能显著提升集群效率与整体成本效益。

3. 外部客户突破与成本优势

  • 标杆案例:2025年10月,Anthropic签署多年期协议,最多使用100万颗Ironwood TPU,价值数百亿美元,创下AI史上最大单笔算力交易。Meta亦传出计划从2027年起部署TPU的消息。
  • 成本逻辑:Ironwood TPU每美元性能/价格较前代提升2倍,相比NVIDIA B200在总拥有成本(TCO)上具有约30%~41%的优势。当推理成本被压低至对手一半以下,经济驱动力开始削弱软件生态壁垒。

4. 需求侧规模效应

  • 内部消耗:谷歌不仅是算力使用者,更是全球最大的Token消费者。其处理的token涵盖搜索、广告、YouTube推荐及安全系统等,日均处理量已达万亿级,远超单一模型公司的API调用规模。
  • 竞争影响:谷歌对TPU性价比的优化动力源于自身巨大的内部消耗,每降低一分成本直接转化为利润。这种“自己就是最大客户”的身份,使其在控制推理成本上比任何外部客户更具优势。

值得关注

  • 竞争格局演变:短期内英伟达凭借CUDA生态和市场份额仍占主导,但谷歌正将竞争拉入其擅长的“系统效率”与“成本控制”维度。企业需求正从购买单一GPU转向管理包含上千个智能体(Agent)的系统。
  • 未来趋势:AI竞争下半场可能从“训练模型”转向“管理智能体”乃至“控制系统”。谷歌证明了不依赖英伟达硬件也能构建可行的AI基础设施,选择权的增加对垄断者构成了实质性威胁。
  • 合作动态:基于Gemini构建的苹果新一代Siri将于今年发布,预计每年价值约10亿美元;毕马威等企业在谷歌Agent平台上已实现大规模部署。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。