Frissítve: 15 perce·Ma: 50
Hardver & Infra
AI által generált szöveg

Az Ollama MLX támogatással gyorsítja a helyi modellek futtatását Macen

A fejlemény egybeesik az OpenClaw népszerűségével, amely 300 ezer csillagot ért el a GitHubon.

Az Ollama MLX támogatással gyorsítja a helyi modellek futtatását Macen
Fotó: BoliviaInteligente / Unsplash
Forrás: Ars TechnicaSzerző: AI Forradalom szerk.
Megosztás

A Ollama bejelentette, hogy mostantól támogatja az Apple nyílt forráskódú MLX keretrendszerét, ezzel felgyorsítva a nagy nyelvi modellek futtatását a Mac-eken. A fejlesztés előzetes verziója (Ollama 0.19) már egyetlen modellt is képes kezelni – a 35 milliárd paraméteres Alibaba Qwen3.5 35B változatot. A rendszer emellett javította a gyorsítótárazási teljesítményt és támogatja az Nvidia NVFP4 formátumot a modellkompresszióhoz, ami memóriahatékonyságot jelent bizonyos modellek esetén.

Miért fontos ez? A helyi modellek iránti érdeklődés nő, különösen a GitHubon 300 000 csillagot elérő OpenClaw népszerűségének köszönhetően. A fejlesztők fáradtak a rate limitektől és a magas előfizetési díjaktól, így a saját gépükön futó kódolási modellekre fordulnak. A helyi futtatás nemcsak költséghatékonyabb, hanem adatvédelmi szempontból is előnyösebb, hiszen a modell nem jut hozzá a felhasználó rendszeréhez.

A technikai részletek szerint a MLX támogatás lehetővé teszi a memóriakezelés optimalizálását az Apple Silicon chipjein, ahol a GPU és a CPU memória megosztott. Ennek köszönhetően a M5‑sorozatú GPU-k új neurális gyorsítóival extra előnyöket kapnak – jobb token-per-second értékek és rövidebb time-to-token. Azonban a hardverigények magasak: legalább 32 GB RAM szükséges, és a rendszer még csak a legújabb Macs‑re van optimalizálva.

Az Ollama jelenleg csak parancssori felületű, bár más interfészek is elérhetők. A MLX bevezetése nem zárja ki a felhőalapú modellek és a helyi megoldások közötti szakadékot, de egy lépést jelent a modern Mac‑használók számára. A cég még nem adta meg, mikor kerül ki a preview státuszából, illetve hány további modellt fognak támogatni.

Mi a következő lépés? Az Ollama fejlesztői várhatóan bővítik a modellkínálatot, és finomhangolják a hardveres támogatást. A felhasználóknak érdemes követniük a 0.19 frissítéseket, és felkészülni a 32 GB RAM‑igényre, ha a Qwen3.5 35B-et szeretnék futtatni. A felhőalapú szolgáltatásokra való függőség csökken, de a helyi futtatás még mindig kihívást jelent a legtöbb számára.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom