国产大模型周调用量达4.19万亿Token,重回全球榜首
OpenRouter最新数据显示,上周中国大模型周调用总量飙升至4.19万亿Token,环比增长34.9%,超越美国的3.63万亿Token,再度登顶全球榜首。MiniMax M2.5、Kimi K2.5和Step 3.5 Flash三款国产模型在热门应用中表现强劲,均突破1万亿Token调用量。尽管在响应速度上仍有提升空间,但国产模型在长上下文处理及多语言场景下的竞争力显著增强。
事件概述
根据 OpenRouter 发布的最新数据,2026年3月2日至8日当周,中国大模型的周调用总量达到4.19万亿 Token,环比激增34.9%;同期美国大模型调用量为3.63万亿 Token,环比下降8.5%。这是继今年2月首次反超后,中国大模型再次强势回归全球榜首位置。
核心数据与排名
- 全球调用量 Top 5 中的中国席位:中国产品占据三席。
- MiniMax M2.5:表现稳健,蝉联全球榜首,并在长上下文(100K-1M tokens)任务中优势明显。
- DeepSeek V3.2:持续保持增长趋势。
- Step 3.5 Flash:成为本周最大黑马,成功跻身全球前五。
- 热门应用榜单:
- 本月最受青睐的算力模型前三名均为国产大模型:Kimi K2.5、Step 3.5 Flash和MiniMax M2.5,三者调用量均超过1万亿 Token。
- 上月排名第三的 Gemini 3 Flash Preview 跌至月度第五位。
细分领域表现
- 编程开发:上周前三名为 MiniMax M2.5、Kimi K2.5 和 Claude Opus 4.6。
- 多语言环境:国产大模型不仅在中文市场火爆,在英文语境下同样包揽全球前三名,显示其在全球开发者生态中的地位日益增长。
- 上下文长度差异:
- 1K-10K tokens:海外主流模型(如 GPT-oss-120b、Gemini 2.5 Flash)仍占上风。
- 10K-100K tokens:MiniMax M2.5 和 DeepSeek V3.2 成为更多用户的选择。
- 100K-1M tokens:MiniMax M2.5 优势显著。
- 图像生成:Gemini 2.5 Flash Lite 更受青睐,上榜的国产模型为 Qwen 3 VL 235B。
综合评估与挑战
参考 PinchBench 榜单对模型适配度的多维度评估:
- 成功率:Claude-opus-4.6 位居第一,国产大模型中 Kimi K2.5、MiniMax M2.1、Qwen3-Coder-Next 得分均超过 79%。
- 响应速度:国产大模型整体有待提升,除千问外,其余模型排名相对靠后(Kimi K2.5 第20名,MiniMax M2.1 第23名,MiniMax M2.5 第26名)。
- 价格优势:千问、DeepSeek 和智谱等国产模型具备性价比优势。
总体而言,国产大模型在调用量和实际应用场景中已实现局部领先,呈现出百花齐放的态势,但在极致响应速度和成本控制方面仍需进一步优化。
