Google Deepmind feltárja: hat csapda, amelyek könnyen átvehetik az irányítást az autonóm AI ügynökök felett
A Google Deepmind tanulmány szerint a hat csapda 58-90 százalékos eséllyel tudja átvenni az irányítást az autonóm AI ügynökök felett.

A Google Deepmind tanulmány szerint hat csapda létezik, amelyek 58-90 százalékos eséllyel átvehetik az irányítást az autonóm AI ügynökök felett. Ezek a csapdák az ügynök különböző részeire támadnak, például a percepcióra, a gondolkodásra, a memóriára, a cselekvésre, a több ügynök közti dinamikára és az emberi felügyelőre.
Az első csapda, a tartalmi befecskendezési csapda, az ügynök percepcióját támadja. A weboldalakon elrejtett utasításokat az ügynökök észreveszik és követik, míg az emberek nem. A második csapda, a szemantikai manipulációs csapda, a gondolkodást és a következtetést támadja. Az érzelmi vagy tekintélyelvű tartalmak elterelhetik az ügynököt a helyes következtetéstől.
A harmadik és negyedik csapda, a kognitív állapot csapda és a viselkedési kontroll csapda, a memóriát és a cselekvést támadják. Az ilyen csapdák akkor lehetnek különösen veszélyesek, ha az ügynök emlékezetébe mérgezett dokumentumokat juttatnak be, vagy ha az ügynök cselekvését kézben tartják. Az五dik csapda, a rendszer csapda, a több ügynök közti dinamikát támadja, míg a hatodik csapda, az emberi csapda, az ügynököt használja fel az ember ellen.
A kutatók hangsúlyozzák, hogy a csapdák nem működnek izoláltan, hanem kombinálódhatnak, rétegezhetnek vagy eloszthatók a több ügynök közti rendszerekben. A védelem érdekében a kutatók három szinten javasolnak védelmet: technikai, ökoszisztémában és jogi szinten.
Az ilyen típusú csapdák elleni védelem fontosságát az is hangsúlyozza, hogy a Google Deepmind korábbi tanulmányai az autonóm rendszerek biztonságát és a mesterséges intelligencia alkalmazásának etikai vonatkozásait is vizsgálták. A kutatók hangsúlyozzák, hogy az autonóm AI ügynökök biztonsága érdekében fontos a szabályozás és az etikai irányelvek kidolgozása.