Frissítve: 9 perce·Ma: 57
Kutatás
AI által generált szöveg

Az InkSF 30 nap alatt keresi az AI-biztonság legnagyobb hatását

Cormac Slade Byrd, az InkSF mögött álló személy, 2 hónapja tanulmányozza az AI-biztonságot és most San Francisco felé indul, hogy közelebbről figyelemmel kísérje a fejleményeket.

Az InkSF 30 nap alatt keresi az AI-biztonság legnagyobb hatását
Fotó: Nathan Kuczmarski / Unsplash
Forrás: LessWrong AISzerző: AI Forradalom szerk.
Megosztás

Cormac Slade Byrd, az InkSF mögött álló személy, 2 hónapja tanulmányozza az AI-biztonságot, és most San Francisco felé indul, hogy közelebbről figyelemmel kísérje a fejleményeket. Az utóbbi időben sokat gondolkodott azon, hogyan lehet minimalizálni az AI katasztrofális kimenetelének valószínűségét.

Az AI-biztonság kérdése azért fontos, mert a világ jövője forog kockán. Byrd szerint a legtöbb ember, akivel beszélt, úgy gondolja, hogy az AI túl erős lehet az emberek számára, és ennek valószínűsége 78%. Emellett Byrd úgy becsüli, hogy az AI-képességek fejlesztésére fordított összeg legalább 20-szorosa az AI-biztonság garantálására fordított összegnek.

Az AI-biztonság garantálásának egyik módja az lehet, ha megpróbáljuk megérteni, mely részei a modellnek fontosak a jó kimenetelhez. Byrd példaként említi, hogy ha sikerül megérteni, mely részei a modellnek fontosak, akkor lehetőség van arra, hogy az AI katasztrofális kimenetelének valószínűségét 40%-ról 20%-ra csökkentsük. Azonban Byrd hangsúlyozza, hogy a siker valószínűsége alacsony, mindössze 1%.

Byrd úgy döntött, hogy San Franciscóba költözik, ahol az AI-fejlesztés központja található. Úgy gondolja, hogy a közvetlen tapasztalat és a kapcsolatok építése fontos az AI-biztonság garantálásához. Byrd terve az, hogy legalább 500 szót írjon minden nap, amit San Franciscóban tölt, és ezzel próbálja megérteni az AI-biztonság összetett kérdéseit.

Byrd az InkSF projektet indítja el, amelynek célja, hogy az AI-biztonság legfontosabb kérdéseit vizsgálja. A projekt keretében Byrd mindennap írni fog az AI-biztonságról, és próbálja megérteni a legfontosabb kérdéseket. A projekt célja, hogy Byrd jobban megértse az AI-biztonság összetett kérdéseit, és segítsen abban, hogy az AI ne okozzon katasztrofális kimenetelt az emberiség számára.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom