Meta数十亿美元采购AWS自研ARM CPU,AI算力格局迎转折

2026/05/05 18:35阅读量 3

2026年,Meta与AWS签署价值数十亿美元的三年期协议,采购数千万个AWS自研ARM架构Graviton5 CPU核心。此举旨在满足Agentic AI对CPU密集型任务(如调度、逻辑推理)的需求,标志着AI推理侧CPU重要性回归,ARM架构正挑战x86在数据中心的传统主导地位。

事件概述

2026年,Meta与AWS联合宣布一项为期三年、价值数十亿美元的协议,Meta将部署数千万个AWS自研的Graviton5 CPU核心(对应数十万颗物理芯片)。此举被视为AI算力格局转变的里程碑。

核心信息

  • 交易细节:Meta成为全球最大的Graviton客户之一,部署核心数达数千万,协议金额数十亿美元。Graviton5每颗芯片拥有192个核心,缓存为前代五倍,核心间通信延迟降低33%,整体性能提升25%。
  • 背后动因:新兴的Agentic AI(AI智能体)需执行多步骤任务,如搜索、代码生成和任务编排,这些属于CPU密集型工作。GPU擅长并行矩阵运算,适合训练和批量推理;而CPU在灵活逻辑调度、条件分支和实时响应上更具优势。
  • 混合架构:Meta的AI推理正演变为“GPU负责核心矩阵运算 + CPU负责调度、编排和逻辑推理”的混合模式。行业共识逐渐形成:“训练用GPU,Agentic AI用CPU+GPU”。
  • 弹性与战略:Meta选择租赁而非自建,核心考量是“弹性”。通过AWS可快速获取算力,将固定成本转化为可变成本,避免自建数据中心的漫长周期和巨额资本支出。同时,此举旨在分散算力来源,降低对单一供应商(如NVIDIA)或架构(如x86)的依赖。
  • 行业影响:AWS的Graviton基于ARM架构,其每瓦性能优于x86,伴随AWS规模效应建立了成本优势。Meta的采购是对ARM竞争力的强力背书。对AMD和Intel构成挑战:在GPU市场追赶NVIDIA已然吃力,x86 CPU在AI推理侧又面临ARM侵蚀。更便宜的算力架构有望降低AI服务整体成本,推动更多AI功能普及到终端设备。

值得关注

Meta在协议前几周刚宣布480亿美元AI基础设施投资,其中相当部分留给CPU推理。Google(TPU调度层使用ARM CPU)、微软(Azure使用Graviton)也在进行类似迁移。Meta公开强调“计算资源多元化已成为战略必需”,表明AI算力正从依赖单一架构走向多极博弈。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。