Google bemutatja a Gemma 4 nyílt AI-modelljét, átáll az Apache 2.0 licencre
A Gemma 4 modell az Ars Technica szerint a harmadik helyen debütál az Arena listán, a GLM-5 és a Kimi 2.5 mögött, de sokkal kisebb méretű, ami olcsóbbá teszi a futtatását.

Google most recently bejelentette a Gemma 4 nyílt AI modelljét, amely a Google Gemini sorozatának legnagyobb nyitott változata. A modellcsalád négy méretben érhető el: 26B Mixture of Experts, 31B Dense, Effective 2B (E2B) és Effective 4B (E4B). A 26B és 31B változatok unquantized bfloat16 formátumban futnak egyetlen 80 GB Nvidia H100 GPU-n, míg a kisebb E2B és E4B a mobil eszközökre, például Pixel telefonokra, Raspberry Pi és Jetson Nano készülékekre vannak optimalizálva.
Miért fontos a Gemma 4? A Google korábbi nyílt modelljeihez, a Gemma 3-hoz hasonlóan, a Gemma 4 is a helyi futtatásra lett tervezve, de jelentősen csökkentette a licencbeli korlátozásokat. A cég a saját licence helyett az Apache 2.0-t választotta, amely szabadabb használati feltételeket és nem szólható felhasználási korlátokat kínál. Ez a lépés a fejlesztők bizalmát erősíti, és elősegíti a Gemma modelljének szélesebb körű alkalmazását.
A technikai részletek szerint a 26B Mixture of Experts modell csak 3,8 milliárd paramétert aktivál a becslés során, ami magasabb token/másodperc sebességet eredményez. A 31B Dense a minőségre fókuszál, és a fejlesztők számára finomhangolható. Az E2B és E4B modellek 128 k tokenes kontextusablakot kínálnak, míg a nagyobb változatok 256 k tokenre bővülnek. A modell támogatja a natív függvényhívást, JSON kimenetet, multimodális bemeneteket és 140‑nál több nyelvet.
Versenyképes helyzet: a Google azt állítja, hogy a Gemma 31B a Arena lista harmadik legjobb nyílt AI modellje lesz, a GLM‑5 és Kimi 2.5 után. Azonban a 31B modell mérete csak egy törtje a GLM‑5 és a Kimi 2.5 méretének, ami jelentősen alacsonyabb futtatási költséget jelent.
Mi a következő lépés? A Gemma 4 E2B és E4B modelljei alapul szolgálnak a következő generációs Gemini Nano 4-nek, amely a Pixel telefonokban fog szerepelni. A Google azt ígéri, hogy a fejlesztők azonnal letölthetik a modell súlyait Hugging Face, Kaggle és Ollama platformokról, és akár Google Cloudban is futtathatják díj ellenében.