谷歌发布Gemma 4:Apache 2.0许可加持,端侧AI开启“效率竞赛”
2026/04/03 10:24阅读量 2
北京时间2026年4月3日,Google DeepMind正式发布Gemma 4开源模型系列,包含四款不同规格模型,覆盖从移动端到本地工作站的完整算力梯度。该系列采用Apache 2.0宽松许可证,并基于与闭源旗舰Gemini 3同源的技术底座,在推理效率和多模态能力上实现显著突破。其中26B A4B MoE模型以仅激活38亿参数击败数百亿参数竞品,标志着开源大模型竞争从“规模竞赛”转向“效率竞赛”。
事件概述
北京时间2026年4月3日凌晨,Google DeepMind正式发布新一代开放模型系列——Gemma 4。官方将其定义为“迄今为止最强悍的开源模型”,强调其通过工程效率与推理密度的极致优化,为行业提供了一条区别于单纯追求参数规模的技术路径。
核心信息
1. 产品矩阵与性能表现
Gemma 4一次性释放了四个规格,覆盖从端侧嵌入式设备到本地开发工作站的完整算力梯度:
- 26B A4B MoE模型:总参数量约252亿,推理时仅激活38亿参数。在Arena AI文本排行榜上位居第六,击败了包括通义千问Qwen3-235B和Meta Llama-3.1-405B在内的多款参数量数百亿甚至数千亿的竞品。
- 31B Dense模型:未量化版本可在单张80GB NVIDIA H100上运行,量化后可部署于消费级GPU,在Arena AI榜单上位列开源模型全球第三。
- 边缘模型(E2B/E4B):专为移动优先AI设计,分别支持原生音频输入、语音识别与理解,旨在适配数十亿Android设备及物联网终端。
2. 技术底座与能力升级
Gemma 4基于与闭源旗舰模型Gemini 3相同的研究成果与技术架构构建,实现了以下关键能力的提升:
- 高级推理:支持多步规划与深度逻辑链,显著提升数学和指令遵循基准测试表现。
- Agentic工作流原生支持:内置函数调用(function-calling)、结构化JSON输出及原生系统指令,便于开发者构建自主智能体。
- 多模态原生处理:全系列模型原生支持视频、图像及可变分辨率输入,OCR和图表理解能力突出;边缘模型额外支持音频输入。
- 超长上下文:边缘模型支持128K上下文窗口,大模型最高支持256K,可处理代码仓库或长篇文档。
- 多语言支持:原生训练覆盖140+种语言,包含中文。
3. 战略转折:Apache 2.0许可
此次发布最重大的信号在于许可证变更。Gemma 4放弃此前条件性协议,全面采用Apache 2.0许可证。这是业界最宽松、对商业用途最友好的开源协议之一,意味着开发者获得了完全的数据主权、基础设施控制权和模型控制权,可在本地或云端自由构建和部署。这一举措被视为谷歌对开发者社区反馈的直接回应,也是参与开源竞争的“入场券”。
4. 端侧生态整合
谷歌正将端侧AI从“实验品”推向“基础设施”:
- 硬件合作:与高通(Qualcomm)、联发科(MediaTek)深度合作,使E2B和E4B能在手机、树莓派、NVIDIA Jetson Orin Nano等设备上完全离线运行,延迟接近零。
- 开发工具链:Android开发者可通过AICore Developer Preview进行Agent流程原型设计,Android Studio支持驱动Agent Mode,ML Kit GenAI Prompt API支持生产级应用构建。
- 全平台支持:发布首日即获得Hugging Face、NVIDIA NIM、Apple MLX、AMD ROCm、Docker及Google Cloud等主流工具链的全面支持。
值得关注
- 竞争格局变化:Gemma 4的发布标志着开源大模型竞争进入“效率竞赛”阶段,“参数效率”(intelligence-per-parameter)成为衡量价值的新标尺。
- 本地化落地空间:对于中国开发者而言,256K上下文窗口、原生中文支持配合Apache 2.0的完全自由部署权,意味着在国内合规框架下拥有本地化落地的技术空间。
- 生态扩张预期:自第一代发布以来,Gemma系列累计下载量已超4亿次,衍生变体超10万个。在Apache 2.0许可下,第四代有望实现更大幅度的生态扩张。
