Az OpenAI új biztonsági irányelveket adott ki a fejlesztőknek, hogy védelmezzék a tinédzsereket
Több mint 6 kategóriába sorolt biztonsági politika került kidolgozásra, hogy a fejlesztők hatékonyabban védelmezhessék a tinédzsereket.
Az OpenAI ma bejelentette, hogy megosztja a fejlesztőkkel a tinédzserek védelmére szabott biztonsági irányelveket. A 6 kategóriába sorolt, prompt-alapú szabályzatok a gpt-oss-safeguard 20B modelllel működnek, és segítik a fejlesztőket abban, hogy a fiatal felhasználók számára megfelelő szűréseket valósítsanak meg.
A dokumentumok célja, hogy a fejlesztők könnyen alkalmazhassák a teen-specifikus kockázatokat, például a grafikus erőszakot, a szexuális tartalmat, a káros testideálokat, a veszélyes kihívásokat, a szerepjátékokat és a korhatáros árut. Ezek a szabályzatok valós idejű szűrésre és offline tartalom-elemzésre is használhatóak, így a rendszerek egyértelműen tudnak döntéseket hozni.
A policy‑csomagot Common Sense Media és everyone.ai szakértői segítettek kidolgozni, így a tartalomkategóriák a fiatalok fejlesztői szempontjából relevánsak. A prompt‑alapú megközelítés lehetővé teszi a fejlesztők számára, hogy a meglévő munkafolyamatokba illeszd a szabályokat, és idővel finomhangolják őket.
A bejelentés része az OpenAI hosszú távú teen safety blueprint-jének, amely a Model Spec frissítésével és a szülői kontrollokkal, valamint a korbecsüléssel is rendelkezik. A policy csomag nem önálló megoldás, hanem kiindulópont; a fejlesztőknek a saját alkalmazásukhoz igazítaniuk kell a szabályokat, és más védelmi rétegeket is be kell építeniük.
Jövőben a fejlesztőknek figyelniük kell a policy csomag frissítéseit, valamint a felhasználói visszajelzések alapján történő finomhangolást. Az OpenAI a nyílt forráskódú megközelítés révén arra ösztönzi a közösséget, hogy közösen fejlesszék a fiatalok védelmét célzó eszközöket.