A llama.cpp #21038 PR aktivációs rotációt vezet be a KV cache kvantálásához: a technikával 3 bitre csökkenthető a tárolás szinte nulla pontosságvesztéssel, ami hosszú kontextusú modellekben komoly memória-megtakarítást jelent.
Reddit LocalLLaMA
204 cikk összesen (szűrt)
A llama.cpp #21038 PR aktivációs rotációt vezet be a KV cache kvantálásához: a technikával 3 bitre csökkenthető a tárolás szinte nulla pontosságvesztéssel, ami hosszú kontextusú modellekben komoly memória-megtakarítást jelent.
Reddit LocalLLaMA
A Photoroom csapata 32 H200 GPU-t használt, összesen 1500 dollár értékű számítási kapacitást, a modell betanításához.
Hugging Face
A Cohere Command A Vision és Command A Reasoning modellek hozzáadásával az Oracle OCI Generative AI mostantól támogatja a multimodális feldolgozást és a komplex elemzést is.
Cohere
A Qwen 3.6-Plus a harmadik saját modell, amelyet az elmúlt héten adtak ki.
Reddit LocalLLaMA
A Google Gemma 4 modelljének nyílt forráskódú volta lehetővé teszi, hogy akár egy Raspberry Pi eszközön is futtassák, valós idejű döntéshozatalra alkalmas legyen.
Reddit LocalLLaMA
A Conway ügynököt egy önálló Claude-ügynök környezetben tesztelik, amely kiterjesztéseket, webhookokat és Chrome használatot tartalmaz.
Anthropic
A kutatók 171 érzelmi fogalommal tesztelték a Claude modellt, és azonosítottak olyan mintákat, amelyek az érzelmi reakciókat jellemzik.
Anthropic
A NVIDIA Model Optimizerral és FastNAS Pruninggal optimalizált modell a CIFAR-10 adathalmazon 20-120 építési körrel és 12-120 finomhangolási körrel készül.
MarkTechPost
A kutatók egy új, szintetizált adathalmazt használtak a modell betanításához, amelyet egy Qwen3Omni-30B tanítási modell segítségével hoztak létre.
ArXiv NLP
A Simon Willison szerint a szoftverfejlesztőknek újra kell gondolniuk a munkafolyamataikat, mivel a kódoló ügynökök képesek gyorsan és pontosan dolgozni.
Simon Willison
A kutatók szerint a nagy nyelvi modellek 4-7-szeresére becsülik túl a feladatok időtartamát, ami komoly gyakorlati következményekkel jár az ügynökszintű tervezésben és ütemezésben.
ArXiv NLP
A Gemini 3 Deep Think emellett 84,6%-os eredményt ért el az ARC-AGI-2 teljesítményteszten, és 3455 Elo pontot ért el a Codeforces versenysorozatban.
Google DeepMind
A Gemini 3.1 Pro modell a fogyasztók és fejlesztők számára is elérhető lesz különböző platformokon, például a Gemini API-n, Vertex AI-n, Gemini appon és NotebookLM-en.
Google DeepMind
A SPORE klaszterezési algoritmust az úgynevezett unsupervised learning módszerrel fejlesztették ki, ami lehetővé teszi a címkézés nélküli adatfeldolgozást.
Reddit ML
A Dynin-Omni modell 87.6 pontot ért el a GSM8K teljesítményteszten
ArXiv NLP
A Meta Avocado modelljének késlekedése miatt a cégnek át kell értékelnie a nyílt forráskódú stratégiáját.
Meta AI
A Trinity Large Thinking modell a PinchBench benchmarken a 2. helyen áll, csak a Claude Opus-4.6 előzi meg.
MarkTechPost
A kutatók szerint a GPT modell hibájának korrekciója a layout, a carry-semantika, a rekombinációs és a tens-resziduális szakaszokon keresztül történhet.
ArXiv NLP
A TRL v1.0 fejlesztésébe 6 évnyi munka és több mint 1000 commit ment bele
Reddit LocalLLaMA
A Meta Avocado modellje képes komplex matematikai feladatokat megoldani, amelyeket korábbi Llama modellek nem tudtak kezelni.
Meta AI
A kutatók szerint a megbízható LLM-ek fejlesztését akadályozza, hogy a fejlesztők nem fedik fel a modellek magas szintű architektúráját és paraméterszámát.
Hacker News
A Gemma 4 modell 31 milliárd paraméteres verziója mellett a Google három kisebb modellt is kiadott, beleértve a 2B és 4B paraméteres E2B és E4B modelleket is.
Simon Willison
A Google négy különböző modellt adott ki két kategóriában: egy 31B-paraméteres sűrű modell és egy 26B A4B Mixture-of-Experts modell a munkaállomásokra, valamint két kompakt modell, az E2B és az E4B az alacsonyabb erőforrású eszközökhöz.
VentureBeat
Több mint 400 millió letöltés után a Gemma modell mostantól az Apache 2.0 licenc alatt áll, ami lehetővé teszi a fejlesztők számára, hogy korlátlanul használják és terjesszék a modellt.
ZDNet AI
A Gemma 4 modellcsalád az Apache 2 licenc alatt nyílt forráskódú, és olyan multimodális intelligenciát kínál, amely képek, szövegek és hangok feldolgozására is képes.
Hugging Face
A Gemma 4 modellcsalád már most több mint 400 millió letöltést ért el, és több mint 100 000 változatot hozott létre a fejlesztők.
Google DeepMind
A Microsoft új modelljei olcsóbbak, mint a Google és az OpenAI modelljei, a MAI-Transcribe-1 például 0,36 dollárba kerül óránként.
TechCrunch
A Gemma 4 modell az Ars Technica szerint a harmadik helyen debütál az Arena listán, a GLM-5 és a Kimi 2.5 mögött, de sokkal kisebb méretű, ami olcsóbbá teszi a futtatását.
Ars Technica
A PAR²-RAG modell a négy tesztben is folyamatosan felülmúlta a korábbi legjobb eredményeket.
ArXiv AI
Több kutató, köztük Yann LeCun és Demis Hassabis, vitatja az OpenAI álláspontját, és úgy gondolják, hogy a nagy nyelvi modellek önmagukban nem elegendőek az általános intelligencia eléréséhez.
The Decoder
A Microsoft modelljeihez kevesebb mint 10 fős csapatok dolgoztak, akik az iparág legjobb eredményeit érték el.
VentureBeat
A kínai Z.ai bemutatta a GLM-5V-Turbo modellt: 200 000 tokenes kontextusablak, megerősítéses tanulással fejlesztve, STEM-oktatástól videóanalízisig 30 feladattípust kezel.
MarkTechPost
A kutatók 50 TruthfulQA tesztesetet használtak — a Claude Sonnet 4 behódolási aránya mindössze 2%-ra esett a Silicon Mirror alkalmazásával.
ArXiv AI
A kutatók 25 ezer feladatot tartalmazó kísérletet végeztek, amelyben 8 modellt és 4-256 ügynököt használtak, és megfigyelték, hogy az ön szerveződő LLM-ügynökök már jelenleg is képesek specializált sz
ArXiv AI
A Meta Superintelligence Laborjának új AI modellei fejlesztésében olyan szakemberek vettek részt, mint Alexandr Wang, a Scale AI alapítója.
Meta AI
A kutatók egy natív harmony agent harness-t is kifejlesztettek, amely lehetővé teszi a modell natív formátumának használatát.
ArXiv AI
Az LLM-ek figyelmi ablakának növekedése együtt jár a humán fenntartott figyelem képességének csökkenésével, amely 2004 és 2026 között mintegy 16 000-ről 1800 tokentre csökkent.
ArXiv NLP
A PolarQuant a Qwen3.5-9B perplexity értékét 6.90-ről 6.40-re csökkenti
ArXiv NLP
Az Anthropic eddigi legerősebb, kiadatlan Claude Mythos modelljéről szivárogtak ki dokumentumok — ezek szerint a modell már betanítva és tesztelve van, és jelentős előrelépést hoz logikai gondolkodásban, kódírásban és a biztonsági területen is.
Anthropic
Az OpenAI 10 milliárd dollár további befektetést szerzett, amely a rekordbefektetési körét 120 milliárd dollár fölé emeli.
AI Breakfast
A Google Gemini modelljének bevezetése egybeesik az Axiom AI reasoning startup 200M dolláros befektetési körével, amely 1,6 milliárd dolláros értékelést eredményezett.
AI Breakfast
A Bonsai 1-Bit modell átlagos hibarányának logaritmusát a modell méretével összehasonlítva mérhetjük, amit az úgynevezett intelligencia-sűrűség mutat.
Reddit LocalLLaMA
A kutatók szerint a Gemini 3 modellhez hasonló viselkedést más fejlett modellekben is megfigyeltek, köztük az OpenAI GPT-5.2 és az Anthropic Claude Haiku 4.5 modelljeiben.
Wired
A PrismML által kifejlesztett Bonsai 1-bit modelljei akár 8B paraméterig is elérhetők a GitHubon
Reddit LocalLLaMA
A TurboQuant-nak köszönhetően a prompt feldolgozás 14%-kal gyorsabb lett.
Reddit LocalLLaMA
A kutatók szerint a végpontokon orientált klaszterezési módszerrel kapcsolatos kutatásokban a spectral clustering és a k-means algoritmusok együttműködése javíthatja a klaszterezési eredményeket.
Reddit ML
Az új TurboQuant modell a Qwen3.5-27B architektúrát használja, ami közel áll a Q4_0 minőséghez.
Reddit LocalLLaMA
A TurboQuant technológiának köszönhetően a KV cache mérete akár 4,6-szor csökkenhet anélkül, hogy az pontosság romlana.
Reddit LocalLLaMA
A Bonsai-8B modell 136 tokent dolgoz fel másodpercenként egy M4 Pro Macen
Reddit LocalLLaMA
Moulik Gupta kutató szerint a kisebb modellek több időt fordíthatnak a gondolkodásra, így felülmúlhatják a nagyobbak teljesítményét
Towards Data Science
Tetszik az oldal? Támogasd a fejlesztést
Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.