Frissítve: 9 perce·Ma: 28
Modellek & LLM
AI által generált szöveg

Az Alibaba Qwen3.6 modellje kódolásban veri a Google Gemma 4-et

Az Alibaba Qwen3.6-35B-A3B modellje kódolási benchmarkokon jelentősen jobban teljesít, mint a Google Gemma 4-31B, miközben költséghatékonyabb működést ígér.

Az Alibaba Qwen3.6 modellje kódolásban veri a Google Gemma 4-et
Fotó: Growtika / Unsplash
Forrás: The DecoderSzerző: AI Forradalom szerk.
Megosztás

Új nyílt forráskódú AI-modellt adott ki az Alibaba, a Qwen3.6-35B-A3B-t. A mixture-of-experts (MoE) architektúrára épülő modell a 35 milliárd paraméteréből egyszerre csak hármat aktivál, ezzel az Alibaba szerint jelentősen csökkenti a számítási költségeket anélkül, hogy a minőség romlana — írja a The Decoder.

A gyártó szerint a Qwen3.6-35B-A3B jelentősen felülmúlja elődjét, a Qwen3.5-35B-A3B-t az ügynöki kódolási feladatokban. A Google nyílt forráskódú Gemma 4-31B modelljével szemben minden felsorolt kódolási teljesítményteszten vezet: a SWE-bench Verified teszten 73,4-et ért el 52,0-hoz képest, a Terminal-Bench 2.0-n pedig 51,5-öt 42,9-hez képest. Érvelési teszteken is előrébb jár, például a GPQA-n 86,0-t ért el 84,3-hoz képest, az AIME26-on pedig 92,7-et 89,2-höz képest.

Az Alibaba azt állítja, hogy a modell kép- és videófeladatokban még a Claude Sonnet 4.5-tel is lépést tart. A Qwen3.6-35B-A3B gondolkodó és nem gondolkodó üzemmódokat is kínál a felhasználóknak.

A modell kipróbálható a Qwen Studio felületén, API-n keresztül Qwen3.6 Flash néven az Alibaba Cloud Model Studio-ban, vagy letölthető a súlyozott adathalmaz a Hugging Face és a ModelScope platformokról. A mostani kiadás a nagyobb Qwen3.6-Plus modell bevezetése után érkezett.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom