Az Alibaba Qwen3.6 modellje kódolásban veri a Google Gemma 4-et
Az Alibaba Qwen3.6-35B-A3B modellje kódolási benchmarkokon jelentősen jobban teljesít, mint a Google Gemma 4-31B, miközben költséghatékonyabb működést ígér.

Új nyílt forráskódú AI-modellt adott ki az Alibaba, a Qwen3.6-35B-A3B-t. A mixture-of-experts (MoE) architektúrára épülő modell a 35 milliárd paraméteréből egyszerre csak hármat aktivál, ezzel az Alibaba szerint jelentősen csökkenti a számítási költségeket anélkül, hogy a minőség romlana — írja a The Decoder.
A gyártó szerint a Qwen3.6-35B-A3B jelentősen felülmúlja elődjét, a Qwen3.5-35B-A3B-t az ügynöki kódolási feladatokban. A Google nyílt forráskódú Gemma 4-31B modelljével szemben minden felsorolt kódolási teljesítményteszten vezet: a SWE-bench Verified teszten 73,4-et ért el 52,0-hoz képest, a Terminal-Bench 2.0-n pedig 51,5-öt 42,9-hez képest. Érvelési teszteken is előrébb jár, például a GPQA-n 86,0-t ért el 84,3-hoz képest, az AIME26-on pedig 92,7-et 89,2-höz képest.
Az Alibaba azt állítja, hogy a modell kép- és videófeladatokban még a Claude Sonnet 4.5-tel is lépést tart. A Qwen3.6-35B-A3B gondolkodó és nem gondolkodó üzemmódokat is kínál a felhasználóknak.
A modell kipróbálható a Qwen Studio felületén, API-n keresztül Qwen3.6 Flash néven az Alibaba Cloud Model Studio-ban, vagy letölthető a súlyozott adathalmaz a Hugging Face és a ModelScope platformokról. A mostani kiadás a nagyobb Qwen3.6-Plus modell bevezetése után érkezett.