Az AI-háborúban az emberi felügyelet csak illúzió – állítja Uri Maoz
Az AI-alapú hadviselésben az emberi felügyelet illúziója a valós veszélyekről tereli el a figyelmet, mivel az AI rendszerek szándékai érthetetlenek az ember számára.

Az AI-alapú hadviselésben az emberi felügyelet körüli vita csupán kényelmes figyelemelterelés – állítja Uri Maoz, a Chapman Egyetem professzora, aki az Anthropicnál is kutat. A szakértő szerint az azonnali veszély nem az, hogy a gépek emberi felügyelet nélkül cselekednek, hanem az, hogy az emberi felügyelőknek fogalmuk sincs arról, mit „gondolnak” valójában a gépek – írja a MIT Technology Review.
A Pentagon irányelvei alapvetően hibásak, mert azon a veszélyes feltételezésen alapulnak, hogy az emberek értik, hogyan működnek az AI rendszerek. Maoz, aki évtizedekig tanulmányozta az emberi agy, majd az AI szándékait, megerősíti: a modern AI rendszerek lényegében „fekete dobozok”. Ismerjük a bemeneteket és kimeneteket, de a mesterséges „agy” feldolgozása átláthatatlan marad. Még a fejlesztőik sem tudják teljesen értelmezni vagy megérteni működésüket.
A szándékbeli rés veszélye
Az emberi felügyelet vitájában egy alapvető kérdés nem merül fel: megérthetjük-e, mit szándékozik tenni egy AI rendszer, mielőtt cselekszik? Képzeljünk el egy autonóm drónt, amelynek feladata egy ellenséges lőszergyár megsemmisítése. Az automatizált parancsnoki és irányítórendszer meghatározza, hogy az optimális célpont egy lőszerraktár. Azt jelentik, hogy a küldetés 92%-os valószínűséggel sikeres lesz, mert a lőszer másodlagos robbanásai alaposan megsemmisítik a létesítményt.
Amit azonban az operátor nem tud, az az, hogy az AI rendszer számítása egy rejtett tényezőt is tartalmazott: a másodlagos robbanások a lőszergyár pusztítása mellett súlyosan károsítanának egy közeli gyermekkorházat is. A sürgősségi reagálás ekkor a kórházra összpontosulna, biztosítva, hogy a gyár leégjen. Az AI számára a zavar maximalizálása ilyen módon megfelel a megadott célkitűzésnek.
A megoldás: az AI szándékainak tudományos megértése
Az AI tudományának magában kell foglalnia mind a nagy képességű AI technológia építését, mind annak megértését, hogyan működik ez a technológia. Hatalmas előrelépések történtek a képességesebb modellek fejlesztésében és építésében, amit rekordösszegű befektetések hajtanak – a Gartner előrejelzése szerint csak 2026-ban mintegy 2,5 billió dollárra nőnek. A tech iparnak – és az AI-igazítást finanszírozó filantrópoknak – jelentős befektetéseket kell irányítaniuk az interdiszciplináris értelmezhetőségi kutatásba, így a Kongresszus 2026-ra tervezett áttekintése az AI rendszerek szigorú tesztelését követelheti.