Az Ollama MLX támogatással gyorsítja a helyi modellek futtatását Macen
A fejlemény egybeesik az OpenClaw népszerűségével, amely 300 ezer csillagot ért el a GitHubon.

A Ollama bejelentette, hogy mostantól támogatja az Apple nyílt forráskódú MLX keretrendszerét, ezzel felgyorsítva a nagy nyelvi modellek futtatását a Mac-eken. A fejlesztés előzetes verziója (Ollama 0.19) már egyetlen modellt is képes kezelni – a 35 milliárd paraméteres Alibaba Qwen3.5 35B változatot. A rendszer emellett javította a gyorsítótárazási teljesítményt és támogatja az Nvidia NVFP4 formátumot a modellkompresszióhoz, ami memóriahatékonyságot jelent bizonyos modellek esetén.
Miért fontos ez? A helyi modellek iránti érdeklődés nő, különösen a GitHubon 300 000 csillagot elérő OpenClaw népszerűségének köszönhetően. A fejlesztők fáradtak a rate limitektől és a magas előfizetési díjaktól, így a saját gépükön futó kódolási modellekre fordulnak. A helyi futtatás nemcsak költséghatékonyabb, hanem adatvédelmi szempontból is előnyösebb, hiszen a modell nem jut hozzá a felhasználó rendszeréhez.
A technikai részletek szerint a MLX támogatás lehetővé teszi a memóriakezelés optimalizálását az Apple Silicon chipjein, ahol a GPU és a CPU memória megosztott. Ennek köszönhetően a M5‑sorozatú GPU-k új neurális gyorsítóival extra előnyöket kapnak – jobb token-per-second értékek és rövidebb time-to-token. Azonban a hardverigények magasak: legalább 32 GB RAM szükséges, és a rendszer még csak a legújabb Macs‑re van optimalizálva.
Az Ollama jelenleg csak parancssori felületű, bár más interfészek is elérhetők. A MLX bevezetése nem zárja ki a felhőalapú modellek és a helyi megoldások közötti szakadékot, de egy lépést jelent a modern Mac‑használók számára. A cég még nem adta meg, mikor kerül ki a preview státuszából, illetve hány további modellt fognak támogatni.
Mi a következő lépés? Az Ollama fejlesztői várhatóan bővítik a modellkínálatot, és finomhangolják a hardveres támogatást. A felhasználóknak érdemes követniük a 0.19 frissítéseket, és felkészülni a 32 GB RAM‑igényre, ha a Qwen3.5 35B-et szeretnék futtatni. A felhőalapú szolgáltatásokra való függőség csökken, de a helyi futtatás még mindig kihívást jelent a legtöbb számára.