Google 发布第八代 AI 芯片 TPU 8t 与 TPU 8i:训练推理双轨升级
2026/04/22 23:04阅读量 2
Google 正式推出第八代自研 AI 芯片 TPU 8t(训练专用)和 TPU 8i(推理专用),分别针对计算密集型训练和延迟敏感型推理场景优化。TPU 8t 单 Superpod 可扩展至 9,600 颗芯片,提供 121 ExaFlops 算力及 2 PB 共享内存;TPU 8i 则配备 288 GB 高带宽内存,确保模型工作集完全驻留片上。该架构旨在将前沿模型开发周期从数月缩短至数周,并显著提升芯片间带宽效率。
事件概述
Google 宣布发布第八代自研 AI 芯片系列,包含专为大模型训练设计的 TPU 8t 和专为大模型推理设计的 TPU 8i。两款芯片在架构设计上各有侧重,以满足不同负载需求。
核心参数与性能
TPU 8t(训练专用)
- 设计目标:满足计算密集型的训练工作负载,提升计算吞吐量与可扩展带宽。
- 扩展能力:单个 TPU 8t superpod 可扩展至 9,600 个芯片,支持 2 PB 共享高带宽内存。
- 算力表现:提供 121 ExaFlops 算力,允许最复杂模型利用单一海量内存池。
- 互联性能:芯片间带宽达到上一代的两倍。
- 效率提升:据称可将前沿模型的开发周期从数月缩短至数周。
TPU 8i(推理专用)
- 设计目标:满足对延迟最敏感的推理工作负载。
- 内存配置:配备 288 GB 高带宽内存(HBM)和 384 MB 片上 SRAM。
- 技术优势:通过大容量片上存储,确保模型活动工作集能完全留在芯片上,减少数据搬运延迟。
