Az OpenAI és a Pentagon megállapodott: az AI-modellek nem használhatók tömeges megfigyelésre
A szerződés tiltja az OpenAI modelljeinek felhasználását amerikai állampolgárok tömeges megfigyelésére, bár kritikusok szerint a megfogalmazás elég homályos ahhoz, hogy kiskapukat hagyjon.

Az OpenAI és a Pentagon közötti megállapodás részletei lassan kiderülnek. A szerződés értelmében az OpenAI modelljei nem használhatók fel amerikai állampolgárok tömeges megfigyelésére, azonban a kritikusok attól tartanak, hogy a nyelvezet homályos és lehetővé teszi a kormányzat számára a megfigyelést — írja az Understanding AI.
Az Anthropic és a Pentagon közötti korábbi vita után Sam Altman, az OpenAI vezérigazgatója bejelentette, hogy a Pentagonnal kötött megállapodás értelmében az OpenAI modelljei nem használhatók fel amerikai állampolgárok tömeges megfigyelésére, illetve teljesen autonóm fegyverek működtetésére.
Az Anthropic és a Pentagon közötti vita azért robbant ki, mert a Pentagon ragaszkodott ahhoz, hogy az Anthropic engedélyezze a Claude modell használatát amerikai állampolgárok tömeges megfigyelésére. Az Anthropic ezt megtagadta, mire a Pentagon fenyegetőzött, hogy megvonja a vállalattól a biztonsági tanúsítványt.
A hiányzó láncszem
Végül a Pentagon bejelentette, hogy az Anthropic nem szerezheti meg a kormányzati szerződéseket. Az OpenAI és a Pentagon közötti megállapodás értelmében a kormányzat kötelezi magát, hogy az OpenAI modelljeit csak a törvényeknek megfelelően használja fel, azonban a kritikusok attól tartanak, hogy a nyelvezet homályos és lehetővé teszi a kormányzat számára a megfigyelést.
Ahol a számok beszélnek
Az OpenAI modelljeinek használata a kormányzati szektorban 110 milliárd dolláros üzletet jelent. A megállapodásban szerepel, hogy a kormányzat kötelezi magát, hogy az OpenAI modelljeit csak a törvényeknek megfelelően használja fel, és az Understanding AI szerint a szerződés értelmében 2024. december 31-ig kell megvalósítani a megállapodás feltételeit.