Google 发布第八代 AI 芯片 TPU 8t 与 TPU 8i:训练推理双轨升级

2026/04/22 23:04阅读量 2

Google 正式推出第八代自研 AI 芯片 TPU 8t(训练专用)和 TPU 8i(推理专用),分别针对计算密集型训练和延迟敏感型推理场景优化。TPU 8t 单 Superpod 可扩展至 9,600 颗芯片,提供 121 ExaFlops 算力及 2 PB 共享内存;TPU 8i 则配备 288 GB 高带宽内存,确保模型工作集完全驻留片上。该架构旨在将前沿模型开发周期从数月缩短至数周,并显著提升芯片间带宽效率。

事件概述

Google 宣布发布第八代自研 AI 芯片系列,包含专为大模型训练设计的 TPU 8t 和专为大模型推理设计的 TPU 8i。两款芯片在架构设计上各有侧重,以满足不同负载需求。

核心参数与性能

TPU 8t(训练专用)

  • 设计目标:满足计算密集型的训练工作负载,提升计算吞吐量与可扩展带宽。
  • 扩展能力:单个 TPU 8t superpod 可扩展至 9,600 个芯片,支持 2 PB 共享高带宽内存。
  • 算力表现:提供 121 ExaFlops 算力,允许最复杂模型利用单一海量内存池。
  • 互联性能:芯片间带宽达到上一代的两倍。
  • 效率提升:据称可将前沿模型的开发周期从数月缩短至数周。

TPU 8i(推理专用)

  • 设计目标:满足对延迟最敏感的推理工作负载。
  • 内存配置:配备 288 GB 高带宽内存(HBM)和 384 MB 片上 SRAM。
  • 技术优势:通过大容量片上存储,确保模型活动工作集能完全留在芯片上,减少数据搬运延迟。

参考资料

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。