Google Gemma 4 modellje Apache 2.0 licenc alatt érkezik, könnyebben integrálható
A Google négy különböző modellt adott ki két kategóriában: egy 31B-paraméteres sűrű modell és egy 26B A4B Mixture-of-Experts modell a munkaállomásokra, valamint két kompakt modell, az E2B és az E4B az alacsonyabb erőforrású eszközökhöz.

A Google DeepMind új Gemma 4 modellcsalád egyetlen nap alatt négy különböző változatot hozott a piacon. A "workstation" szint két modellét tartalmazza: egy 31 bázisparaméteres sűrű és egy 26 bázisparaméteres A4B Mixture-of-Experts (MoE) modellt, mindkettő 256 kódtároló kapacitással, szöveg- és képadatokat képes feldolgozni. Az "edge" szint két kompakt modellt kínál – E2B (2,3 bázisparaméteres hatékony, 5,1 bázisparaméteres teljes) és E4B – mindkettő 128 kódtárolóval, és támogatja a szöveget, képet és hangot.
A változás lényege a licencben. A Gemma 4 Apache 2.0 licenc alatt érhető el, ami a teljesen nyílt, engedélyező szabályozás, szemben a korábbi Gemma 3 egyedi, korlátozó szerződéssel. Ez a lépés megkönnyíti a vállalati bevezetést, mert nincs szükség jogi értelmezésre, sem "harmful‑use" kitételre. A licencváltozás a legnagyobb akadályt távolítja el, amely a Google modelljei előtt állt.
Technikai szempontból a 26 bázisparaméteres MoE modell 128 kis szakértőből áll, nyolc aktív szakértővel minden tokenhez, egy állandóan futó szakértővel együtt. Ez lehetővé teszi, hogy a 27 bázisparaméteres intelligencia, de a 4 bázisparaméteres feldolgozási sebességhez hasonló teljesítményt nyújtson, így jelentős költségcsökkentést tesz lehetővé GPU‑igényben. Mindkét workstation modell hibrid figyelemmechanizmussal dolgozik, amely a helyi csúszóablakot és a globális figyelmet kombinálva 256 kódtárolót tesz lehetővé.
A multimodális képességek is átalakulnak: a Gemma 4 minden modellje támogatja a változó arányú képeket, 70–1120 vizuális token költségkerettel, több kép és videó sorozat feldolgozásával. Az edge modellek beépített hangfeldolgozást is tartalmaznak, 305 millió paraméteres ASR‑kal, 40 ms frame duration‑tal. Funkcióhívás is natív, a Google FunctionGemma kutatása alapján, amely csökkenti a prompt engineering terhelését.
Benchmarkek alapján a 31 bázisparaméteres sűrű modell 89,2 %‑es pontszámot ért el az AIME 2026‑on, 80,0 %‑t a LiveCodeBench v6‑on, és 2 150 ELO-t a Codeforces‑on. A MoE modell 88,3 %‑t az AIME 2026‑on, 77,1 %‑t a LiveCodeBench‑en. Ezek a számok a legnagyobb nyílt modell teljesítményét tükrözik, miközben a licenc és a költséghatékonyság új szintet jelent.
Google jelezte, hogy a Gemma 4 család nem áll a végén; további méretek várhatóak. A kombináció – teljesen nyílt, magas teljesítményű, multimodális modellek – a legátfogóbb kínálat, amit a Google eddig szállított.