🤖 24 AI
🔴 📦 开源 2026年4月18日星期六 · 2 分钟阅读

Google Gemma 4:四款开源模型,31B dense排名竞技场第三,Apache 2.0许可证

为什么重要

Gemma 4是Google新一代开源模型,共有四个变体:适用于移动设备的E2B、适用于边缘设备的E4B、拥有38亿活跃参数的26B MoE以及31B dense模型。31B在开源模型竞技场排名第三,据称超越了20倍参数量的模型,26B MoE排名第六。所有模型均为多模态(文本、图像、视频、音频),支持140种语言,上下文长度最高256K tokens,并以Apache 2.0许可证发布。

Google DeepMind发布了新一代开源模型Gemma 4,分为四个变体,覆盖从移动设备到高质量服务器部署的全范围。这篇发布文章由研究副总裁Clement Farabet和产品组长Olivier Lacombe共同撰写,官方标题为**“字节级别最强大的开源模型”**。

四种变体,一个许可证

Google决定覆盖各类使用场景,而非推出单一旗舰模型:

  • E2B(有效2B) — 适用于移动设备和物联网的轻量模型
  • E4B(有效4B) — 改进的边缘计算变体,适用于端侧任务
  • 26B混合专家模型(MoE) — 针对延迟优化,推理时仅激活38亿参数
  • 31B dense — 最高质量变体,适合微调

所有变体均采用Apache 2.0许可证——完全开放商业使用,不附加限制,这使其有别于某些条款更为严格的”开放”模型。

竞技场排名与性能

Arena AI开源模型排行榜上,Gemma 4占据令人印象深刻的位置:

  • 31B dense: 全球开源模型第三名
  • 26B MoE: 全球第六名

Google特别强调31B模型**“超越了参数量20倍于自身的模型”**——这一说法暗示Gemma 4 31B可与参数量达600B+的闭源模型竞争。尽管这一说法带有营销色彩,但竞技场排名通过用户盲测予以证实。

新特性:真正的多模态

Gemma 4从一开始就完全多模态,而非后来追加:

  • 原生视频和图像处理,支持可变分辨率
  • OCR和图表理解,适用于分析任务
  • E2B和E4B变体中的音频支持(语音识别)
  • 支持140种语言 — 远超大多数开源模型

上下文窗口因变体而异:

  • 边缘模型(E2B、E4B):128K tokens
  • 较大变体(26B、31B):最高256K tokens

其他功能包括多步规划的高级推理、用于智能体场景的原生函数调用以及结构化JSON输出。

部署选项

Google为从最小到最大的设备校准了部署生态系统:

端侧:

  • Android手机
  • 树莓派
  • NVIDIA Jetson Orin Nano

云端:

  • Google Cloud Vertex AI
  • Google Kubernetes Engine(GKE)

硬件优化:

  • NVIDIA GPU(CUDA栈)
  • AMD(ROCm栈)
  • Google TPU(原生)

覆盖所有三大加速平台(包括AMD ROCm)意味着Gemma 4不依赖特定硬件生态系统,这对希望保持部署灵活性的企业至关重要。

这意味着什么

过去几个月,开源模型质量经历了显著提升——DeepSeek、Qwen、Llama和Mistral共同构成了极具竞争力的技术栈。Google此前一直处于追赶状态,但Gemma 4 31B荣登竞技场第三标志着Google现在在开源模型领域占据优势。

性能、Apache 2.0许可证、多模态能力和广泛硬件支持的组合,使Gemma 4成为所有闭源API不可接受场景中的严肃选择——从受监管的企业到端侧移动应用。整个产品线代表了Google迄今为止在开源AI领域最雄心勃勃的举措。

🤖

本文由人工智能基于一手来源生成。