Google Gemma 4: vier offene Modelle, 31B Dense auf Platz drei der Arena-Bestenliste, Apache-2.0-Lizenz
Warum es wichtig ist
Gemma 4 ist Googles neue Generation offener Modelle in vier Varianten: E2B für Mobilgeräte, E4B für Edge-Geräte, 26B MoE mit 3,8 Milliarden aktiven Parametern und 31B Dense. Das 31B-Modell belegt den dritten Platz auf der Arena-Bestenliste offener Modelle und übertrifft angeblich Modelle, die 20-mal größer sind. Das 26B MoE liegt auf Platz sechs. Alle Modelle sind multimodal (Text, Bild, Video, Audio), unterstützen 140 Sprachen, bieten bis zu 256K Token Kontext und werden unter der Apache-2.0-Lizenz veröffentlicht.
Google DeepMind hat eine neue Generation offener Modelle unter dem Namen Gemma 4 angekündigt, aufgeteilt in vier Varianten, die die gesamte Bandbreite von Mobilgeräten bis hin zu hochwertigen Server-Deployments abdecken. Die Ankündigung stammt von Clement Farabet (VP of Research) und Olivier Lacombe (Group Product Manager), mit dem offiziellen Titel “Byte for byte, the most capable open models”.
Vier Varianten, eine Lizenz
Anstatt eines einzigen Flagship-Modells hat Google beschlossen, das gesamte Spektrum an Anwendungsfällen abzudecken:
- E2B (Effective 2B) — leichtgewichtiges Modell für Mobilgeräte und IoT
- E4B (Effective 4B) — verbesserte Edge-Variante für On-Device-Aufgaben
- 26B Mixture of Experts (MoE) — für Latenz optimiert, aktiviert während der Inferenz nur 3,8 Milliarden Parameter
- 31B Dense — hochwertigste Variante, ideal für Fine-Tuning
Alle Varianten stehen unter der Apache-2.0-Lizenz — vollständig offen für die kommerzielle Nutzung ohne Einschränkungen, was sie von einigen anderen „offenen” Modellen mit restriktiveren Bedingungen unterscheidet.
Arena-Rankings und Leistung
Auf der Arena-KI-Bestenliste offener Modelle belegt Gemma 4 beeindruckende Plätze:
- 31B Dense: Platz 3 global unter den offenen Modellen
- 26B MoE: Platz 6 global
Google hebt besonders hervor, dass das 31B-Modell „Modelle mit 20-mal mehr Parametern übertrifft” — eine Behauptung, die nahelegt, dass Gemma 4 31B mit geschlossenen Modellen im Bereich von 600B+ Parametern konkurriert. Obwohl die Aussage marketingmäßig formuliert ist, bestätigen die Arena-Rankings dies durch blinde Nutzervotings.
Was neu ist: echte Multimodalität
Gemma 4 ist von Grund auf vollständig multimodal, nicht als nachträgliche Ergänzung:
- Natives Video- und Bildprocessing in variablen Auflösungen
- OCR und Diagrammverständnis für analytische Aufgaben
- Audio-Unterstützung in den E2B- und E4B-Varianten (Spracherkennung)
- Unterstützung für 140 Sprachen — deutlich mehr als bei den meisten offenen Modellen
Kontextfenster variieren je nach Variante:
- Edge-Modelle (E2B, E4B): 128K Token
- Größere Varianten (26B, 31B): bis zu 256K Token
Zusätzliche Fähigkeiten umfassen erweitertes Reasoning mit mehrstufiger Planung, natives Function-Calling für agentische Szenarien und strukturierte JSON-Ausgabe.
Deployment-Optionen
Google hat das Deployment-Ökosystem von den kleinsten bis zu den größten Geräten kalibriert:
On-Device:
- Android-Smartphones
- Raspberry Pi
- NVIDIA Jetson Orin Nano
Cloud:
- Google Cloud Vertex AI
- Google Kubernetes Engine (GKE)
Hardware-Optimierung:
- NVIDIA GPU (CUDA-Stack)
- AMD (ROCm-Stack)
- Google TPU (nativ)
Die Abdeckung aller drei großen Beschleunigungsplattformen — einschließlich AMD ROCm — bedeutet, dass Gemma 4 nicht an ein bestimmtes Hardware-Ökosystem gebunden ist, was für Unternehmen, die Deployment-Flexibilität anstreben, wichtig ist.
Warum das bedeutsam ist
Offene Modelle haben in den letzten Monaten erheblich an Qualität gewonnen — DeepSeek, Qwen, Llama und Mistral bilden gemeinsam einen sehr wettbewerbsfähigen Stack. Google befand sich bisher in der Rolle des Nachfolgers in diesem Trend, aber Gemma 4 31B auf Platz 3 der Arena signalisiert, dass Google nun im Segment der offenen Modelle die Nase vorn hat.
Die Kombination aus Leistung, Apache-2.0-Lizenz, Multimodalität und breiter Hardware-Unterstützung macht Gemma 4 zu einer ernsthaften Wahl für alle Anwendungsfälle, bei denen eine geschlossene API nicht akzeptabel ist — von der regulierten Enterprise bis hin zu mobilen On-Device-Anwendungen. Die gesamte Linie stellt Googles bisher ehrgeizigstes Vorhaben im offenen KI-Stack dar.
Dieser Artikel wurde mithilfe von künstlicher Intelligenz aus Primärquellen erstellt.
Verwandte Nachrichten
Allen AI: OlmoEarth-Embeddings ermöglichen Landschaftssegmentierung mit nur 60 Pixeln und einem F1-Wert von 0,84
Google DeepMind Decoupled DiLoCo: 20-fach geringere Netzwerkbandbreite für KI-Training über geografisch verteilte Rechenzentren
vLLM integriert DeepSeek V4 mit 8,7× kleinerem KV-Cache: eine Million Token Kontext auf Standard-GPU-Hardware