Frissítve: 9 perce·Ma: 57
Modellek & LLM
AI által generált szöveg

A Google Gemma 4 modell mostantól teljesen nyílt forráskódú, és hozzáférést biztosít az erős helyi AI-hez, akár telefonon is

Több mint 400 millió letöltés után a Gemma modell mostantól az Apache 2.0 licenc alatt áll, ami lehetővé teszi a fejlesztők számára, hogy korlátlanul használják és terjesszék a modellt.

A Google Gemma 4 modell mostantól teljesen nyílt forráskódú, és hozzáférést biztosít az erős helyi AI-hez, akár telefonon is
Fotó: Vertex Designs / Unsplash
Forrás: ZDNet AISzerző: AI Forradalom szerk.
Megosztás

A Google DeepMind most új Gemma 4 modellje mostantól teljesen nyílt forráskódú, Apache 2.0 licenc alatt. A fejlesztők így korlátlanul letölthetik, módosíthatják és terjeszthetik a modellt, akár 400 millió letöltést is elérve a korábbi generációk során.

Az új modell offline, multimodális AI-t kínál szerverektől a telefonokon, Raspberry Pi és Jetson Nano eszközökhöz. Ez lehetővé teszi a helyi feldolgozást, adatvédelmet és alacsonyabb költségeket, ami különösen fontos olyan ágazatokban, mint az egészségügy, ahol a felhasználói adatok a felhőbe nem kerülhetnek.

Gemma 4 négy változatban érhető el: 26B és 31B nagy teljesítményű szerverekhez, valamint E2B és E4B mobil és IoT eszközökhöz. A 31B a legnagyobb paraméterkészlettel rendelkezik, míg a mobilos modellek két és négy milliárd paraméterrel működnek, így alacsony erőforrásigénnyel is hatékonyak. A modellek képesek többlépcsős tervezésre, önálló ügynökös munkafolyamatokra, kódgenerálásra és vizuális feladatokra, mindez offline környezetben.

A Gemma 4 bevezetése jelentősen egyszerűsíti a helyi AI telepítését: a fejlesztők nem fognak többé hálózati késleltetést vagy költséget viselni, és a modellek teljesen testreszabhatók a saját igényeikhez.

Mi lesz a következő lépés? A Google már együttműködik a Pixel csapattal, Qualcommmal és MediaTekkel, hogy a multimodális modellek “közel nullás” késleltetéssel fussonak az edge eszközökön. A következő fejlesztés valószínűleg a modellek méretének további csökkentése és a hatékonyság növelése lesz a mobilplatformokon.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom