Frissítve: 9 perce·Ma: 57
Kutatás
AI által generált szöveg

15 órás LLM-képzést indít Sebastian Raschka – így működnek a modellek

A kurzus a "Build a Large Language Model (From Scratch)" című könyvéhez készült kiegészítő anyagokból nőtte ki magát, és önálló tartalomként is kiválóan funkcionál.

15 órás LLM-képzést indít Sebastian Raschka – így működnek a modellek
Fotó: Aleksei Zhivilov / Unsplash
Forrás: Ahead of AISzerző: AI Forradalom szerk.
Megosztás

Tizenöt órás, átfogó képzést indít Sebastian Raschka, a népszerű „Build a Large Language Model (From Scratch)” című könyv szerzője. A kurzus a nulláról építi fel a LLM-eket, a Python környezet beállításától a finomhangolásig, összesen hét videós modulban.

A kurzus célja, hogy a résztvevők mélyrehatóan megértsék a LLM-ek működését, nem csupán elméletben, hanem gyakorlati kódolási feladatokon keresztül. Raschka szerint ez a leghatékonyabb módja a tanulásnak, ahogy egy gokart megépítése is jobban bevezet az autók működésébe, mint egy bonyolult Forma-1-es versenygép.

A képzés többek között a szöveges adatok előkészítését, a tokenizálást és a byte pair encodingot tárgyalja. Kiemelt szerepet kap az attention mechanizmusok kódolása is, amely a LLM-ek „motorját” adja, beleértve az öndiffúziót, a kauzális figyelmet és a multi-head attentiont.

A LLM-ek építőkövei

A kurzus részletesen bemutatja a LLM architektúra felépítését és előzetes betanítását címkézetlen adatokon. A finomhangolás két videóban is megjelenik: először egy általános osztályozási feladaton (spam-szűrés), majd az instrukciókövető finomhangolás részleteivel.

A fejlődés iránya

Raschka korábbi cikkeiben már bemutatta a KV-cache működését, ami a LLM-ek hatékony inferenciájához elengedhetetlen, és a Qwen3 nyílt forráskódú modell implementálását is. A fizetős előfizetők egy extra, 2,5 órás bónusz videót is kapnak, amely a LLM-ek fejlődését tekinti át 2018-tól 2025-ig, különös tekintettel a Llama 4 kiadására, 2025-ben.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom