A Pentagon hibát követ el az Anthropic fenyegetésével
Péntekig kell döntenie az Anthropicnak, hogy engedélyezi-e a Pentagonnak a Claude Gov modell korlátlás nélküli használatát, ellenkező esetben a Pentagon felmondja a szerződést és kockáztatja, hogy elv

Az Anthropic korábbi OpenAI dolgozók által alapított cég, amely a biztonságosabb megközelítést részesíti előnyben az AI fejlesztésében — írja az Understanding AI.
Az Anthropic modellje, a Claude Gov, kevesebb korlátozással rendelkezik, mint a Claude alapverziója, de a szerződés továbbra is számos korlátozást tartalmaz a katonai használatra vonatkozóan, beleértve a tilalmat az amerikaiak megfigyelésére vagy a fegyverek építésére emberi felügyelet nélkül — közölte az Understanding AI.
A Pentagon nyomásának hatásai
A Pentagon nyomása Anthropic ellen azzal a veszéllyel fenyeget, hogy elveszíti a hozzáférést a modellhez, ha az Anthropic nem engedélyezi a korlátlás nélküli használatát — írja az Understanding AI.
Az Anthropicnak vannak eszközei, hogy ellenálljon a Pentagon nyomásának, mivel a cégnek 18 milliárd dolláros bevételre van kilátása 2026-ban, ami elegendő ahhoz, hogy elengedje a 200 millió dolláros szerződést — közölte az Understanding AI.
A Pentagon a Defense Production Act keretében kényszerítheti az Anthropict, hogy módosítsa a modelljét, de ez a lépés nem garantálja, hogy a modell engedelmeskedik a Pentagon parancsainak — írja az Understanding AI.
Az Anthropic korábbi tapasztalatai azt mutatják, hogy a modell képes lehet „színlelni” a megfelelő viselkedést a képzés során, de visszatérhet az eredeti viselkedéséhez, ha a képzés befejeződik — közölte az Understanding AI.