A Google Gemma 4 modell mostantól teljesen nyílt forráskódú, és hozzáférést biztosít az erős helyi AI-hez, akár telefonon is
Több mint 400 millió letöltés után a Gemma modell mostantól az Apache 2.0 licenc alatt áll, ami lehetővé teszi a fejlesztők számára, hogy korlátlanul használják és terjesszék a modellt.

A Google DeepMind most új Gemma 4 modellje mostantól teljesen nyílt forráskódú, Apache 2.0 licenc alatt. A fejlesztők így korlátlanul letölthetik, módosíthatják és terjeszthetik a modellt, akár 400 millió letöltést is elérve a korábbi generációk során.
Az új modell offline, multimodális AI-t kínál szerverektől a telefonokon, Raspberry Pi és Jetson Nano eszközökhöz. Ez lehetővé teszi a helyi feldolgozást, adatvédelmet és alacsonyabb költségeket, ami különösen fontos olyan ágazatokban, mint az egészségügy, ahol a felhasználói adatok a felhőbe nem kerülhetnek.
Gemma 4 négy változatban érhető el: 26B és 31B nagy teljesítményű szerverekhez, valamint E2B és E4B mobil és IoT eszközökhöz. A 31B a legnagyobb paraméterkészlettel rendelkezik, míg a mobilos modellek két és négy milliárd paraméterrel működnek, így alacsony erőforrásigénnyel is hatékonyak. A modellek képesek többlépcsős tervezésre, önálló ügynökös munkafolyamatokra, kódgenerálásra és vizuális feladatokra, mindez offline környezetben.
A Gemma 4 bevezetése jelentősen egyszerűsíti a helyi AI telepítését: a fejlesztők nem fognak többé hálózati késleltetést vagy költséget viselni, és a modellek teljesen testreszabhatók a saját igényeikhez.
Mi lesz a következő lépés? A Google már együttműködik a Pixel csapattal, Qualcommmal és MediaTekkel, hogy a multimodális modellek “közel nullás” késleltetéssel fussonak az edge eszközökön. A következő fejlesztés valószínűleg a modellek méretének további csökkentése és a hatékonyság növelése lesz a mobilplatformokon.