Frissítve: 15 perce·Ma: 49
Modellek & LLM
AI által generált szöveg

A kínai Z.ai GLM-5.1 modellje 8 órán át is dolgozik egy feladaton

A kínai Z.ai nyílt forráskódú LLM-et, a GLM-5.1-et mutatta be, amely a MIT licenc alatt kereskedelmi célokra is felhasználható. A GLM-5.1 modell akár nyolc órán keresztül is önállóan dolgozik

A kínai Z.ai GLM-5.1 modellje 8 órán át is dolgozik egy feladaton
Fotó: Félix Girault / Unsplash
Forrás: VentureBeatSzerző: AI Forradalom szerk.
Megosztás

Az új GLM-5.1 modell akár nyolc órán keresztül is önállóan dolgozik egyetlen feladaton, ezzel egyértelműen az ügynökalapú mérnöki munkák felé mozdul el — írja a VentureBeat. A Z.ai, más néven Zhupai AI, ezzel a lépéssel a termelékenység optimalizálására fókuszál, miközben a versenytársak inkább a logikai érvelést javító tokenek növelésére koncentrálnak.

A GLM-5.1 egy 754 milliárd paraméteres Mixture-of-Experts modell, amelyet úgy terveztek, hogy hosszú végrehajtási láncokon keresztül is fenntartsa a célhoz való igazodást, akár több ezer eszközhívás során. A Z.ai vezetője, Lou a X-en közölte, hogy míg tavaly év végén az ügynökök körülbelül 20 lépést tudtak megtenni, a GLM-5.1 jelenleg 1700-at is képes végrehajtani. Szerinte az autonóm munkaidő a skálázási törvények után a legfontosabb fejlesztési irány.

A modell technológiai áttörése nem csupán a méretében rejlik, hanem abban is, hogy képes elkerülni a korábbi modelleknél tapasztalt teljesítményplatót. Hagyományos ügynökalapú munkafolyamatokban a modellek eleinte gyorsan fejlődnek, majd megakadnak, és a további idő vagy eszközhívások már csak csökkenő hozamot vagy stratégiai sodródást eredményeznek. A Z.ai kutatása szerint a GLM-5.1 egy úgynevezett lépcsőzetes mintázat szerint működik, ahol a fix stratégia finomhangolási periódusait strukturális változások szakítják meg, amelyek új teljesítményhatárokat nyitnak meg.

A technikai jelentés első forgatókönyvében a modell egy nagyteljesítményű vektordatabá-zis optimalizálásával foglalkozott (VectorDBBench). A GLM-5.1 655 iteráción és több mint 6000 eszközhíváson keresztül futott, miközben korábbi modellek, mint a Claude Opus 4.6, 3547 lekérdezés/másodpercnél elérték a teljesítményplatót. A modell a 90. iterációnál például f16 vektoros tömörítésre váltott, 6400 lekérdezés/másodpercre növelve a teljesítményt, majd a 240. iterációnál egy kétlépcsős folyamatot vezetett be, amivel 13 400 lekérdezés/másodpercet ért el. Végül 21 500 lekérdezés/másodperces eredményt produkált, ami hatszorosa a 50 fordulós munkamenet legjobb eredményének.

A GLM-5.1-et KernelBench Level 3 teszteken is próbára tették, ahol teljes gépi tanulási architektúrák, például a MobileNet és a VGG végponttól végpontig tartó optimalizálására volt szükség. A modell 3,6-szoros geometrikus átlagos gyorsulást ért el 50 probléma során, jelentős fejlődést mutatva még 1000 eszközhasználati forduló után is. Bár a Claude Opus 4.6 4,2-szeres gyorsulással még mindig vezet ebben a benchmarkban, a GLM-5.1 jelentősen kiterjesztette a nyílt forráskódú modellek termelékeny horizontját.

A Z.ai a GLM-5.1-et mérnöki szintű eszközként pozicionálja, nem pedig fogyasztói chatbotként. Az úgynevezett Coding Plan ökoszisztémába integrálták, amely három előfizetési szinten érhető el, és mindegyik tartalmazza a Model Context Protocol eszközeit, például a látóelemzést és a webes keresést. A Lite csomag negyedévente 27 dollárba kerül, a Pro 81 dollárba, míg a Max csomag, amely garantált teljesítményt biztosít csúcsidőben, 216 dollárba kerül negyedévente.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom