Google Gemma 4: četiri otvorena modela, 31B dense na trećem mjestu Arene, Apache 2.0 licenca
Zašto je bitno
Gemma 4 je Googleova nova generacija otvorenih modela u četiri varijante: E2B za mobitele, E4B za edge uređaje, 26B MoE s 3,8 milijarde aktivnih parametara i 31B dense. 31B drži treće mjesto na Arena ljestvici otvorenih modela i navodno nadmašuje modele 20 puta veće, a 26B MoE je šesti. Svi modeli su multimodalni (tekst, slika, video, audio), podržavaju 140 jezika, imaju kontekst do 256K tokena i puštaju se pod Apache 2.0 licencom.
Google DeepMind je objavio novu generaciju otvorenih modela pod imenom Gemma 4, podijeljenih u četiri varijante koje pokrivaju raspon od mobilnih uređaja do visokokvalitetnih server deploymenta. Autori objave su Clement Farabet (VP of Research) i Olivier Lacombe (Group Product Manager), a službeni naslov je “Byte for byte, the most capable open models”.
Četiri varijante, jedna licenca
Umjesto jednog flagship modela, Google je odlučio pokriti cijeli spektar korisničkih slučajeva:
- E2B (Effective 2B) — lagani model za mobilne uređaje i IoT
- E4B (Effective 4B) — unaprijeđena edge varijanta za on-device zadatke
- 26B Mixture of Experts (MoE) — optimiziran za latenciju, aktivira samo 3,8 milijarde parametara tijekom inferencije
- 31B dense — najkvalitetnija varijanta, idealna za fine-tuning
Sve varijante pod Apache 2.0 licencom — potpuno otvorene za komercijalnu upotrebu bez ograničenja, što ih razlikuje od nekih drugih “open” modela koji imaju restriktivnije uvjete.
Arena rangiranje i performanse
Na Arena AI ljestvici otvorenih modela Gemma 4 zauzima impresivna mjesta:
- 31B dense: #3 globalno među otvorenim modelima
- 26B MoE: #6 globalno
Google posebno ističe da 31B model “nadmašuje modele 20 puta veće po parametrima” — usporedba koja sugerira da je Gemma 4 31B konkurentna sa zatvorenim modelima reda 600B+ parametara. Iako je ta tvrdnja marketinški formulirana, Arena rangiranje to potvrđuje kroz slijepo glasanje korisnika.
Što je novo: prava multimodalnost
Gemma 4 je potpuno multimodalna od samog početka, ne kao later add-on:
- Nativno procesiranje videa i slika u varijabilnim rezolucijama
- OCR i razumijevanje grafikona za analitičke zadatke
- Audio podrška u E2B i E4B varijantama (prepoznavanje govora)
- Podrška za 140 jezika — značajno iznad većine open modela
Kontekstni prozori se razlikuju po varijanti:
- Edge modeli (E2B, E4B): 128K tokena
- Veće varijante (26B, 31B): do 256K tokena
Dodatne mogućnosti uključuju napredno razmišljanje s višestupanjskim planiranjem, native function-calling za agentske scenarije i structured JSON output.
Deployment opcije
Google je kalibrirao ekosustav za deployment od najmanjih do najvećih uređaja:
On-device:
- Android telefoni
- Raspberry Pi
- NVIDIA Jetson Orin Nano
Cloud:
- Google Cloud Vertex AI
- Google Kubernetes Engine (GKE)
Hardverska optimizacija:
- NVIDIA GPU (CUDA stack)
- AMD (ROCm stack)
- Google TPU (native)
Pokrivanje svih triju velikih akceleracijskih platformi — uključujući AMD ROCm — znači da Gemma 4 nije vezan za specifičan hardverski ekosustav, što je važno za enterprise koji žele fleksibilnost deployera.
Zašto je ovo značajno
Otvoreni modeli su proteklih mjeseci doživjeli ozbiljan rast kvalitete — DeepSeek, Qwen, Llama i Mistral zajedno čine vrlo konkurentan stack. Google je do sada bio u poziciji praćenja tog trenda, ali 31B Gemma 4 na #3 mjesto Arene signalizira da Google sada drži prednost na otvorenom modelu segmentu.
Kombinacija performanse, Apache 2.0 licence, multimodalnosti i široke hardverske podrške čini Gemmu 4 ozbiljnim izborom za sve use caseove gdje zatvoreni API nije prihvatljiv — od regulirane enterprise do on-device mobilnih aplikacija. Cijela linija predstavlja Googleov najambiciozniji potez u otvorenom AI stacku dosad.
Ovaj članak generiran je uz pomoć umjetne inteligencije na temelju primarnih izvora.
Povezane vijesti
Allen AI: OlmoEarth embeddings omogućuju segmentaciju krajobraza s tek 60 piksela i F1 rezultatom 0,84
Google DeepMind Decoupled DiLoCo: 20× manja mrežna propusnost za AI trening kroz geografski razdvojene datacentre
vLLM uveo DeepSeek V4 s 8,7× manjim KV cacheom: milijun tokena konteksta na standardnom GPU hardveru