Anthropic kitiltva: a Pentagon nem enged a tömeges megfigyelés tilalmából
A döntés mögött az áll, hogy az Anthropic nem volt hajlandó együttműködni a Pentagonnal abban, hogy AI-modelljeit bizonyos katonai célokra használják, ami aggodalmat keltett a nemzetbiztonságot illetően.

A Pentagon 2026. február 27-én nemzetbiztonsági kockázatnak minősítette az Anthropicot, miután a cég megtagadta, hogy AI-modelljeit tömeges hazai megfigyelésre vagy teljesen autonóm halálos fegyverekhez használja az amerikai hadsereg — írja a TNW.
Pete Hegseth, az amerikai védelmi miniszter a X-en jelentette be a döntést, amely a 10 USC 3252 törvénycikkely alapján korábban a Huawei és a ZTE kínai cégek ellen került alkalmazásra. Ugyanezen a napon, órákkal az Anthropic feketelistára kerülése után, Sam Altman, az OpenAI vezérigazgatója bejelentette, hogy cége saját megállapodást kötött a Pentagonnal, és modelljei minden jogszerű célra elérhetők lesznek.
A tiltás háttere és jogi következményei
Az Anthropic 2025 júliusában 200 millió dolláros Pentagon-szerződést kapott titkosított rendszereken végzett munkára. A szerződés két korlátozást tartalmazott: a Claude modell nem használható tömeges hazai megfigyelésre, és nem működtethet teljesen autonóm fegyvereket emberi beavatkozás nélkül. Ezek a feltételek összhangban álltak a nemzetközi humanitárius jog és az amerikai alkotmányos védelem régóta fennálló tilalmaival.
A Pentagon azonban „korlátlan hozzáférést” követelt az AI-hoz „minden jogszerű célra”. Amikor az Anthropic elutasította a korlátozások eltávolítását, Hegseth február 27-én délután 5:01-es határidőt szabott. A megállapodás hiányában Donald Trump volt elnök „baloldali őrülteknek” nevezte a cég vezetését, és elrendelte az összes szövetségi ügynökség számára az Anthropic technológiájának azonnali leállítását.
Egy San Franciscó-i szövetségi bíró, Rita Lin márciusi ítéletében „klasszikus első alkotmánykiegészítési megtorlásnak” nevezte az adminisztráció lépéseit, és előzetes végzést adott ki a tilalom blokkolására. Azonban egy fellebbviteli bíróság később elutasította az Anthropic kérelmét, azzal érvelve, hogy „az egyensúly a kormány javára billen”. Jelenleg az Anthropic ki van zárva a Pentagon-szerződésekből, de más ügynökségekkel dolgozhat, miközben két párhuzamos pert is folytat.
Az OpenAI szerepe és a piaci jelzés
Sam Altman elmondása szerint az OpenAI is osztja az Anthropic alapelveit a tömeges megfigyelés és az autonóm fegyverek tilalmát illetően. A két cég vörös vonalai papíron szinte azonosak, a különbség az, hogy az OpenAI aláírta a Pentagonnal kötött megállapodást, az Anthropic viszont nem. Az OpenAI Pentagonnal kötött megállapodásának részletei nem kerültek nyilvánosságra, de a kormány egyértelműen talált módot arra, hogy eltávolítsa a betartatható biztonsági korlátozásokat a titkosított katonai rendszerekben használt AI-modellekből.
Ez a piaci jelzés minden AI-vállalat számára egyértelmű, amely közszektorbeli szerződésről tárgyal a világ bármely pontján. Sam Altman elismerte, hogy az üzlet „definitíve elhamarkodott” volt. Az OpenAI saját alkalmazottai is ellenálltak, és a ChatGPT eltávolításai állítólag 295%-kal ugrottak meg a bejelentést követő napokban, miközben a Claude felkerült az amerikai App Store élére.
Európai tanulságok
Európa közel egy évtizedet töltött egy olyan AI-szabályozási keretrendszer kiépítésével, amely azon az alapvető demokratikus érvelésen alapul, hogy a nagy teljesítményű technológiákat törvényeknek kell korlátozniuk, nem csupán a fejlesztő cégek jó szándékának. Az AI-törvény, amely 2026 augusztusában lép teljes körűen hatályba, ezt az érvelést ülteti át a jogszabályba. A tiltott felhasználási módok, mint például a valós idejű biometrikus megfigyelés nyilvános helyeken és a szociális pontozás, nem maradnak a vállalati mérlegelésre, hanem tiltottak.
Az Anthropic-saga megmutatja, mi történik egy olyan joghatóságban, ahol ezt az érvelést elutasították. Az Egyesült Államokban a Biden-adminisztráció AI-biztonsági végrehajtási rendeletét Trump első napján visszavonták, és az állami szintű AI-jogszabályokat aktívan elfojtották. Amikor egy vállalat megpróbálta beágyazni az EU AI-törvényének elveit saját szerződéses feltételeibe, a kormány egy olyan törvényhez nyúlt, amelyet külföldi szabotőrök semlegesítésére terveztek.
Az EU jelenleg tárgyalás alatt álló „Digital Omnibus” csomagja az AI-törvény és a GDPR egyes részeinek késleltetését és gyengítését javasolja a bürokrácia csökkentése és a versenyképesség növelése érdekében. Az Anthropic esete azonban korrekciót kínál ehhez a kerethez, és rávilágít a szabályozás fontosságára a technológiai versenyben.