A Pentagon visszavág: az Anthropic marad a veszélyes beszállítók listáján
A washingtoni fellebbviteli bíróság döntése ellentmond egy korábbi, San Franciscó-i ítéletnek, amely a Pentagonnal szemben az Anthropicnak adott igazat.

A washingtoni fellebbviteli bíróság megerősítette a Pentagon azon döntését, amely szerint az Anthropic mesterséges intelligencia-gyártó továbbra is a „ellátási lánc kockázatot jelentő” cégek listáján marad — írja a Wired. Ez a verdikt ellentmond egy korábbi, San Franciscó-i alsóbb fokú ítéletnek, amely az Anthropicnak adott igazat.
A háromtagú fellebbviteli tanács egy precedens értékű ügyben hozott döntést, hangsúlyozva, hogy nem kívánják megkockáztatni a „jelentős igazságügyi beavatkozást a katonai műveletekbe”, és nem írják felül könnyedén a hadsereg nemzetbiztonsági megítélését. A bíróság szerint az Anthropic „nem felelt meg a szigorú követelményeknek” a kockázati besorolás ideiglenes feloldására vonatkozóan.
A San Franciscó-i bíró korábban úgy ítélte meg, hogy a Védelmi Minisztérium valószínűleg rosszhiszeműen járt el az Anthropic ellen. Ezt a mesterséges intelligencia-cég technológiájának felhasználására vonatkozó korlátozások és a korlátozások nyilvános bírálata váltotta ki.
A bizalom fala
Danielle Cohen, az Anthropic szóvivője közölte, a cég hálás, hogy a washingtoni bíróság „elismerte, ezen kérdéseket gyorsan meg kell oldani”. A vállalat továbbra is bízik abban, hogy a bíróságok végül egyetértenek abban, hogy a besorolások jogellenesek voltak.
Veszélyes beszállító?
Az Anthropic szerint illegálisan büntetik őket, amiért ragaszkodnak ahhoz, hogy Claude nevű AI-eszközük nem rendelkezik a szükséges pontossággal bizonyos érzékeny műveletekhez, például emberi felügyelet nélküli halálos dróncsapások végrehajtásához. A washingtoni bíróság május 19-re tűzte ki a szóbeli meghallgatást az Anthropic perében, a Védelmi Minisztérium egyelőre nem kommentálta a döntést.