Frissítve: 17 perce·Ma: 58
Szabályozás
AI által generált szöveg

Az Anthropic elleni kultúrháború visszafelé sül el a Pentagonnak

Egy kaliforniai bíró, Rita Lin ideiglenesen megtiltotta a Pentagonnak, hogy Anthropicot ellátási láncbiztonsági kockázatként jelölje meg

Az Anthropic elleni kultúrháború visszafelé sül el a Pentagonnak
Fotó: Margaret Giatras / Unsplash
Forrás: MIT Technology ReviewSzerző: AI Forradalom szerk.
Megosztás

A kaliforniai bíró, Rita Lin, ideiglenesen megtiltotta a Pentagonot, hogy Anthropicot ellátási láncbiztonsági kockázatként jelölje meg, és parancsolta a kormányügynökségeknek, hogy hagyják abba Anthropic AI-jának használatát. A döntés a 2025-ös fegyveres konfliktus közepén történt, amikor a Pentagon Claude modellt használta a döntéshozatal támogatására, míg az Anthropic már korábban megindult a jogi fellépés ellen a Trump által kiadott rendelet miatt.

Az események a technológiai szektorban egyre növekvő igényt tükröznek az AI egészségügyi eszközökre. Microsoft, Amazon és OpenAI mindhárom cég a hónapokban bejelentett új, orvosi chatbottokat, melyek célja, hogy a hagyományos egészségügyi szolgáltatásokhoz nehezebben jutó embereknek is elérhető tanácsokat nyújtsanak. Azonban a fejlesztők közti kritikák szerint a termékek szinte semmilyen független értékelés nélkül kerültek piacra, ami a felhasználók biztonságát veszélyeztetheti.

A technológiai részletek szerint Anthropic Claude modellje, amelyet a Pentagon számos feladatra alkalmazott, egy nyílt forráskódú LLM, amely többnyelvű és multimodális képességekkel rendelkezik. A modell használata során a kormányzat a belső biztonsági protokollokat és az adatvédelmi szabályokat is figyelembe vette, azonban a bíró szerint a vállalat nem biztosított elegendő átláthatóságot a modell működésének és kockázatainak értékeléséhez.

A jogi harc hatása a piacon is érezhető. Az Anthropic és a Pentagon közötti viták után más nagy techcégek, mint a Google és a Meta, is szorítást éreznek a szabályozói környezetben, különösen az AI egészségügyi eszközök és a kormányzati szerződések terén. A California új AI-szabályozása, amely a 2026-ban hatályba lép, kötelező biztonsági ellenőrzéseket ír elő a kormányzati szerződésekhez, így a cégköröknek újra kell értékelniük a kockázatkezelési stratégiáikat.

Mi a következő? A bíró ideiglenes hatályú tiltását a hatóságoknak 30 napig kell betartani, miközben a felek tovább tárgyalják a végső megállapodást. A Pentagonnak most fel kell készülnie arra, hogy alternatív AI megoldásokat keressen, míg Anthropicnak további független ellenőrzéseket kell bevezetnie a modelljének biztonságossá tételéhez. A techipar és a kormányzati szervek számára a tanulság: a gyors AI-fejlesztés és a szabályozói megfelelés közötti egyensúly kritikus, különösen az egészségügyi és biztonsági területeken.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom