Google DeepMind lemaradt az OpenAI mögött az AI biztonsági rangsorban
Az OpenAI javított pozíciót ért el, míg a Google DeepMind visszacsúszott a vezető AI-cégek biztonsági rangsorában 2025 nyarán. A változás az AI-cégek biztonsági gyakorlatainak értékeléséből adódik.

A mesterséges intelligencia fejlesztésében élen járó vállalatok továbbra sem képesek megfelelően kezelni a fejlett AI-rendszerek kockázatait, derül ki a Future of Life Institute (FLI) legújabb, 2025 nyári AI Biztonsági Indexéből — írja a szervezet.
A jelentés, amely az Anthropic, Google DeepMind, Meta, OpenAI, x.AI, Deepseek és Zhipu AI biztonsági gyakorlatait vizsgálta, mély ellentmondásokat és kritikus hiányosságokat tárt fel. Különösen aggasztó, hogy egyetlen vállalatnak sincs robusztus stratégiája a rendszerek feletti érdemi ellenőrzés biztosítására, vagy annak hatékony meghatározására, mekkora kockázatot jelentenek.
Stuart Russell, az UC Berkeley számítástechnika professzora szerint „egyes vállalatok jelképes erőfeszítéseket tesznek, de egyik sem tesz eleget.” Hozzátette, hogy „szuperintelligens AI-rendszereket hozunk létre, amelyek felett elkerülhetetlenül elveszítjük az irányítást.”
Az OpenAI az átláthatóság javításával, egy visszaélések bejelentésére szolgáló szabályzat nyilvános közzétételével és az indexhez szükséges vállalati információk megosztásával előzte meg a Google DeepMindet a rangsorban. A jelentés szerint a kínai AI-cégek, a Zhipu.AI és a Deepseek, általánosan elégtelen minősítést kaptak, bár Kínában a szabályozás szerepe eltér az Egyesült Államok és az Egyesült Királyság gyakorlatától.
Max Tegmark, a MIT professzora és a FLI elnöke úgy véli, az önszabályozás nem működik, és csak a jogilag kötelező biztonsági szabványok jelenthetnek megoldást, hasonlóan az orvostudományhoz vagy az élelmiszeriparhoz. A pontozás július elején zárult, így nem tükrözi a xAI Grok4 kiadását vagy az OpenAI EU AI Act Code of Practice iránti elkötelezettségét.