Google DeepMind 开源 Gemma 4:四种尺寸覆盖手机到工作站,Apache 2.0 许可全面放开

分类: 生图平面类 |发布于: 5/17/2026 |最后更新: 5/17/2026
Google DeepMind 开源 Gemma 4:四种尺寸覆盖手机到工作站,Apache 2.0 许可全面放开

Google DeepMind 开源 Gemma 4:四种尺寸覆盖手机到工作站,Apache 2.0 许可全面放开

基于已整理草稿生成的网页版文章,适合先稳定落地,再做局部润色与发布检查。

Google DeepMind 于 5 月 15 日发布 Gemma 4,这是一个全新的开源模型家族,基于 Gemini 3 的研究和技术构建,首次采用 Apache 2.0 许可证发布。四种模型尺寸覆盖从手机到数据中心的完整硬件谱系,开发者可自由商用部署,无需受限于 Google 的专有生态。

四种尺寸,各有定位

Gemma 4 包含四个模型:

  • 31B Dense:目前在 Arena AI 文本排行榜开源模型中排名第三,未量化权重可在单张 80GB H100 上运行,量化版本可跑在消费级 GPU 上。适合需要最高质量和微调灵活性的场景。
  • 26B MoE(混合专家):总参数 26B 但推理时仅激活 3.8B,在保持强性能的同时大幅降低推理成本和延迟。Google 称其在基准测试中超越了 20 倍参数量的竞品。
  • E4B:有效参数 4B,面向移动设备和边缘部署。
  • E2B:有效参数 2B,面向 IoT 和超低功耗场景。

Google 与 Pixel 团队、高通和联发科合作,确保 E2B 和 E4B 可在手机、Raspberry Pi 和 Nvidia Jetson Orin Nano 上离线运行,近乎零延迟。Android 开发者可通过 AICore Developer Preview 原型化 Agent 工作流。

核心能力

  • 长上下文:大模型支持 256K token,边缘模型支持 128K token,足以一次性传入完整代码仓库或长文档。
  • 原生多模态:所有模型支持可变分辨率的视频和图像处理(OCR、图表理解);E2B 和 E4B 额外支持原生音频输入(语音识别)。
  • Agent 能力:原生函数调用、结构化 JSON 输出、系统指令支持,可构建与工具和 API 交互的自主 Agent。
  • 多语言:原生训练覆盖 140+ 语言。
  • 推理增强:多步规划、更深层逻辑推理,数学和指令遵循基准显著提升。

Apache 2.0:Google 开源策略的转变

此前 Gemma 系列使用的是 Google 自定义许可证,对商用有一定限制。Gemma 4 转向 Apache 2.0 是一个明确的策略信号——Google 在回应开发者社区对更宽松许可的呼声。

Apache 2.0 意味着:开发者对数据、基础设施和模型拥有完全控制权,可自由部署在本地或云端,无需额外授权。这让 Gemma 4 在许可层面与 Meta 的 Llama 系列站在了同一起跑线。

生态基础

Gemma 系列自首代发布以来累计下载超过 4 亿次,社区构建了超过 10 万个衍生变体。Google 将这一生态称为"Gemmaverse"。Gemma 4 的发布为这个生态提供了更强的基础模型和更自由的许可条件。

谁该关注

  • 需要本地部署强模型的开发者:31B Dense 和 26B MoE 在单卡或消费级硬件上即可运行,适合编程助手、Agent 工作流、RAG 系统。
  • 移动和 IoT 开发者:E2B/E4B 提供了在设备端运行多模态 AI 的可行路径。
  • 企业用户:Apache 2.0 消除了商用部署的许可顾虑。

限制

基于多家媒体转述整理,目前 Gemma 4 的具体基准数据和详细技术报告尚未完全公开。Arena 排行榜排名可能随时间变化。边缘模型的实际设备性能需以具体硬件测试为准。

参考来源

说明:该页面由基础模板稳定生成,后续可继续局部润色样式或补充模块,再进入发布检查。