Google Gemma 4:四款开源模型,31B dense排名竞技场第三,Apache 2.0许可证
为什么重要
Gemma 4是Google新一代开源模型,共有四个变体:适用于移动设备的E2B、适用于边缘设备的E4B、拥有38亿活跃参数的26B MoE以及31B dense模型。31B在开源模型竞技场排名第三,据称超越了20倍参数量的模型,26B MoE排名第六。所有模型均为多模态(文本、图像、视频、音频),支持140种语言,上下文长度最高256K tokens,并以Apache 2.0许可证发布。
Google DeepMind发布了新一代开源模型Gemma 4,分为四个变体,覆盖从移动设备到高质量服务器部署的全范围。这篇发布文章由研究副总裁Clement Farabet和产品组长Olivier Lacombe共同撰写,官方标题为**“字节级别最强大的开源模型”**。
四种变体,一个许可证
Google决定覆盖各类使用场景,而非推出单一旗舰模型:
- E2B(有效2B) — 适用于移动设备和物联网的轻量模型
- E4B(有效4B) — 改进的边缘计算变体,适用于端侧任务
- 26B混合专家模型(MoE) — 针对延迟优化,推理时仅激活38亿参数
- 31B dense — 最高质量变体,适合微调
所有变体均采用Apache 2.0许可证——完全开放商业使用,不附加限制,这使其有别于某些条款更为严格的”开放”模型。
竞技场排名与性能
在Arena AI开源模型排行榜上,Gemma 4占据令人印象深刻的位置:
- 31B dense: 全球开源模型第三名
- 26B MoE: 全球第六名
Google特别强调31B模型**“超越了参数量20倍于自身的模型”**——这一说法暗示Gemma 4 31B可与参数量达600B+的闭源模型竞争。尽管这一说法带有营销色彩,但竞技场排名通过用户盲测予以证实。
新特性:真正的多模态
Gemma 4从一开始就完全多模态,而非后来追加:
- 原生视频和图像处理,支持可变分辨率
- OCR和图表理解,适用于分析任务
- E2B和E4B变体中的音频支持(语音识别)
- 支持140种语言 — 远超大多数开源模型
上下文窗口因变体而异:
- 边缘模型(E2B、E4B):128K tokens
- 较大变体(26B、31B):最高256K tokens
其他功能包括多步规划的高级推理、用于智能体场景的原生函数调用以及结构化JSON输出。
部署选项
Google为从最小到最大的设备校准了部署生态系统:
端侧:
- Android手机
- 树莓派
- NVIDIA Jetson Orin Nano
云端:
- Google Cloud Vertex AI
- Google Kubernetes Engine(GKE)
硬件优化:
- NVIDIA GPU(CUDA栈)
- AMD(ROCm栈)
- Google TPU(原生)
覆盖所有三大加速平台(包括AMD ROCm)意味着Gemma 4不依赖特定硬件生态系统,这对希望保持部署灵活性的企业至关重要。
这意味着什么
过去几个月,开源模型质量经历了显著提升——DeepSeek、Qwen、Llama和Mistral共同构成了极具竞争力的技术栈。Google此前一直处于追赶状态,但Gemma 4 31B荣登竞技场第三标志着Google现在在开源模型领域占据优势。
性能、Apache 2.0许可证、多模态能力和广泛硬件支持的组合,使Gemma 4成为所有闭源API不可接受场景中的严肃选择——从受监管的企业到端侧移动应用。整个产品线代表了Google迄今为止在开源AI领域最雄心勃勃的举措。
本文由人工智能基于一手来源生成。