Frissítve: 15 perce·Ma: 0
Modellek & LLM
AI által generált szöveg

OpenAI GPT-OSS: Nyílt forráskódú modell futtatása Google Colabban

Az OpenAI nyílt forráskódú GPT-OSS modellje, azon belül is a gpt-oss-20b verzió, Google Colab környezetben is futtatható, de ehhez legalább 16 GB VRAM-ra van szükség.

OpenAI GPT-OSS: Nyílt forráskódú modell futtatása Google Colabban
Fotó: majed swan / Unsplash
Forrás: MarkTechPostSzerző: AI Forradalom szerk.
Megosztás

Az OpenAI GPT-OSS nyílt forráskódú modelljeinek futtatásához részletes útmutatót tett közzé a MarkTechPost. A cikk a technikai viselkedésre, a telepítési követelményekre és a gyakorlati következtetési munkafolyamatokra fókuszál. A tutorial bemutatja, hogyan állítható be a Transformers-alapú végrehajtáshoz szükséges környezet, ellenőrizve a GPU elérhetőségét.

A gpt-oss-20b modell betöltése natív MXFP4 kvantálással és torch.bfloat16 aktiválásokkal történik. A cikk kitér a strukturált generálásra, a streamingre, a többfordulós párbeszéd kezelésére, az eszközvégrehajtási mintákra és a kötegelt következtetésre is. Kiemelik, hogy a nyílt forráskódú modellek átláthatóság, irányíthatóság és memóriaigény szempontjából eltérnek a zárt API-któl.

A modell szíve: Technikai mélységek

A GPT-OSS nem csupán chatbotként, hanem technikailag is ellenőrizhető, konfigurálható és bővíthető nyílt forráskódú LLM-stackként funkcionál. A Google Colab környezetben történő futtatáshoz a Transformers 4.51.0 vagy újabb verziója, az Accelerate, a Sentencepiece, a Protobuf, a Huggingface_hub, a Gradio, az Ipywidgets és az OpenAI-harmony csomagok telepítése szükséges.

A tutorial lépésről lépésre vezeti végig a felhasználókat a modell betöltésén és az alapvető következtetési példák futtatásán, mint például egyszerű kérdés-válasz, kódgenerálás és kreatív írás. Az OpenAI ajánlása szerint a gpt-oss modellhez 1.0-ás hőmérséklet és 1.0-ás top_p paraméterek használata optimális.

Futásidő és teljesítmény: Az eredmények

A GPT-OSS különböző érvelési szinteket is támogat, mint az alacsony, közepes és magas, melyek a rendszerpromptok és generálási paraméterek segítségével szabályozhatók. A modell futtatásához legalább 16 GB VRAM-mal rendelkező GPU ajánlott, 2024. március 15-én frissítették a modell telepítési útmutatóját.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom