Az AI fegyverkezési versenybe taszítja a kiberbiztonságot
Az Anthropic és az OpenAI új, erősebb rendszereinek megjelenésével a hackerek gyorsabban támadhatnak, miközben a védekezéshez is egyre inkább mesterséges intelligenciát használnak.

Tavaly év végén az Anthropic közölte, hogy államilag támogatott kínai hackerek a mesterséges intelligencia technológiáját felhasználva próbáltak behatolni mintegy 30 vállalat és kormányzati szerv számítógépes rendszereibe világszerte — írja a The New York Times.
Ez volt az első dokumentált kiberbiztonsági incidens, ahol az AI-alapú technológia emberi beavatkozás nélkül gyűjtött érzékeny információkat, állítja az Anthropic blogbejegyzésében. Az emberi hackerek az Anthropic szerint az összes munka mindössze 10-20 százalékát végezték el a támadás során.
A mesterséges intelligencia árnyoldala
Öt hónappal később ez maradt az egyetlen ismert példa egy olyan támadásra, amelyet nagyrészt egy „AI-ügynök” hajtott végre. Ez a technológia önállóan képes kódot írni és szoftvereket használni. Ahogy azonban az Anthropic és az OpenAI új rendszereket ad ki, a kiberbiztonsági szakértők egyre hangosabban figyelmeztetnek: az AI alapjaiban változtatja meg az iparágat.
Az Anthropic, az OpenAI, a Google és más cégek technológiái lehetővé tehetik a hackerek számára, hogy a múltinál sokkal gyorsabban azonosítsanak biztonsági réseket a rendszerekben. Ez drámaian megnöveli a tétet a hálózatokat őrző szakértők évtizedes harcában.
Védekezés az AI ellen
Francis deSouza, a Google Cloud biztonsági termékekért felelős operatív igazgatója és elnöke szerint „ez a legnagyobb változás a kibertérben, valaha”. A szakember úgy véli, mesterséges intelligencia ellen csak mesterséges intelligenciával lehet védekezni, az Anthropic és az OpenAI új rendszerei pedig 2024-ben várhatóak.