Az Arcee AI kiadja a Trinity Large Thinkinget, egy 400 milliárd paraméteres nyílt forráskódú modellt
A Trinity Large Thinking modell a PinchBench benchmarken a 2. helyen áll, csak a Claude Opus-4.6 előzi meg.

Az Arcee AI a Trinity Large Thinking – 400 milliárd paraméteres, Apache 2.0 licencű, nyílt forráskódú, megoldást hozott. A modell 13 milliárd paramétert aktivál tokenenként egy 4‑of‑256 szakértői routinggal, miközben a teljes paraméterkészlet 400 billion.
Az új rendszer a PinchBench teljesítményteszten a 2. helyet foglalja, csak a Claude Opus‑4.6.6 előtt. A 262 144 tokenes kontextusablak révén a model képes hosszú, komplex feladatokat következetesen kezelni.
Technikailag a Trinity Large Thinking egy sparse Mixture‑of‑Experts (MoE) architektúrájú modell, amely a SMEBU (Soft‑clamped Momentum Expert Bias Updates) és a Muon optimizer kombinációjával valósítja meg a stabil expert‑felhasználást. Az interleaved local‑ és global‑attention, valamint a gated attention segíti a nagy kontextusokban történő részletes megértést.
A fejlesztők számára a model teljesen nyílt, így auditálható, finomhangolható és saját infrastruktúrára telepíthető. Az Apache 2.0 licenc biztosítja a valódi szabad hozzáférést, ami különösen vonzóvá teszi a vállalati és szabályozott környezetekben.
Mi a következő lépés? A modell 128k tokenes Preview API már elérhető 8‑bit kvantizációval, míg a 512k tokenes teljes kontextus a jövőben várható, hogy még nagyobb, valós idejű alkalmazásokban is szerepet vállaljon.