Frissítve: 5 perce·Ma: 1
Kutatás
AI által generált szöveg

Az OpenAI és a Google fejleszti a nyelvi modellek szabályozhatóságát

Több mint 100 ezer felhasználó járult hozzá a GPT-4o visszavonásához

Az OpenAI és a Google fejleszti a nyelvi modellek szabályozhatóságát
Fotó: Nicolás Beltrán López / Unsplash
Forrás: Reddit MLSzerző: AI Forradalom szerk.
Megosztás

Az OpenAI és a Google közösen dolgozik egy új módszerről, amely a nyelvi modellek előképzésének szabályozhatóságát kívánja növelni. A kutatók a Reddit Machine Learning fórumán publikáltak egy tanulmányt, amelyben a data curation and targeted replacement technikát mutatják be, hogy a modell előképzésénél a nem kívánt tartalmakat helyettesítsék, mielőtt a finomhangolás megkezdődik.

Ez a megközelítés a GPT‑4o visszavonásának közvetlen hatására jelent meg, amelyet több mint 100 000 felhasználó közreműködésével sikerült befolyásolni. Az OpenAI a visszavonás során bevezetett visszajelzési gyűjtést, személyre szabási szabályokat és értékelési eljárásokat, hogy csökkentse a regressziós kockázatot és javítsa a hosszú távú igazítását.

Az új módszer a nagy, önfelügyelt tanulásra épülő előképzés során dolgozik. A kutatók a Transformer architektúrák általános gyakorlatát – előképzés egy hatalmas, cím nélküli korpuszon, például a The Pile-en – kombinálják a célzott adatcserével. A modell tanulása során a nem kívánt példákat a rendszer cseréli ki, így a finomhangolás előtt már egy tisztább, célorientált adatállományt kap.

Az OpenAI és a Google együttműködése nem csupán a technikai részletekre koncentrál. A Google korábban is publikált szintetikus adatokat és finomhangolási beavatkozásokat, míg az OpenAI a GPT‑4o esetében a felhasználói visszajelzéseket közvetlenül beépítette a modell fejlődésébe. A két cég közös célja, hogy a nagy nyelvi modellek ne csak hatékonyak, hanem felelősségteljesen is működjenek.

Mi a következő lépés? A kutatók a következő hónapokban tervezik a módszer széleskörű tesztelését több, különböző feladatra finomhangolt modellben. A Google és az OpenAI közös jelentéseket fog közzétenni a 2026. első negyedévében, ahol részletesen ismertetik a módszer hatékonyságát és a felhasználói bizalom növelésének eredményeit. A nyilvánosság számára elérhetővé válnak majd a finomhangolási protokollok, amelyek a jövőben a modellek szabályozhatóságának új mércét jelenthetik.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom