Frissítve: 9 perce·Ma: 0
Üzlet & Startup
AI által generált szöveg

Az Anthropic 200 millió dolláros szerződést kockáztat az USA védelmi minisztériummal való vitája miatt

Pénteken dől el, hogy az Anthropic elveszti-e a 200 millió dolláros szerződést, miután a cég elnöke, Dario Amodei, ragaszkodik a két alapelve mellett.

Az Anthropic 200 millió dolláros szerződést kockáztat az USA védelmi minisztériummal való vitája miatt
Fotó: James A. Molnar / Unsplash
Forrás: Ben's BitesSzerző: AI Forradalom szerk.
Megosztás

Az Anthropic pénteken dönti el, hogy 200 millió dolláros védelmi szerződést veszít-e, miután a cég elnöke, Dario Amodei, ragaszkodik a két alapelvhez. A miniszterelnöki kormány a védelmi szektorban egy „relaxed access” felkérést tett a Claude modellhez, de az Anthropic a katonai használat két irányelvét – a „nem autonóm fegyverek” és a „nem amerikaiak masszavizsgálata” – alapján tagadta. Ha a cég nem szünteti meg a szigorú pozícióját, a szerződés elveszhet.

A döntés szignifikáns hatással lenne a vállalatra, hiszen a 200 millió dollár értékű szerződés jelentős bevételt jelentene. Az Anthropic korábban a „responsible skálázás policy” módosításával szabadabbá tette a modellfejlesztést, de a védelmi ügyekkel kapcsolatos szigorú szabályok a vállalat etikai irányelveibe ütköznek. A védelmi minisztérium kérése a katonai alkalmazásra irányuló, de mégis „relaxed” hozzáférésre vonatkozott, ami a vállalat két alapelvét veszélyeztetheti.

Az Anthropic a két alapelvet emelte ki a védelmi minisztériumhoz: 1) semmilyen autonóm fegyverhez nem kíván hozzáférést biztosítani a Claude modellnek, 2) nem engedélyezi a modell használatát amerikaiak masszavizsgálatára. A cég szerint ezek a szabályok védik a felhasználók és a társadalom érdekeit. A védelmi minisztérium azonban azt állítja, hogy a „relaxed access” lehetővé tenné a hatékonyabb, gyorsabb döntéshozatalt a hadseregben.

Az eset a mesterséges intelligencia szabályozásának újabb példája. A vállalatok és a kormányok közti feszültség a technológia etikai határain belül mozog. Az Anthropic szigorú politikája a felelősségteljes skálázásra és a katonai alkalmazásra vonatkozó szigorú szabályokra épül, míg a védelmi minisztérium a gyorsabb, rugalmasabb hozzáférést kívánja. A döntés hatása nemcsak a szerződésre, hanem a későbbi együttműködésekre is kihat.

Ha a cég a szigorú pozícióját fenntartja, a 200 millió dolláros szerződés elvesztése után az Anthropicnak új partnereket kellene keresnie a védelmi szektorban. A szerződés elvesztése a vállalat pénzügyi helyzetét is befolyásolhatja, hiszen a védelmi projektek gyakran nagyobb költségvetéssel járnak. A vállalatnak azonban továbbra is lehetősége van a civil szektorban való növekedésre, és az új, szabadabb „responsible skálázás policy” révén továbbra is fejlesztheti a modelljeit.

A következő napokban a cég döntése várható, és a védelmi minisztérium is reagálni fog. A kormányzati döntéshozók és a vállalat vezetői közötti tárgyalások befolyásolják a szerződés jövőjét. Az események alapos figyelmet igényelnek, mert a mesterséges intelligencia és a védelmi szektor közötti együttműködés jövőjét formálják. A cél, hogy a technológia felelősségteljesen, de hatékonyan szolgálja mind a társadalmat, mind a biztonsági igényeket.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom