Az Anthropic és az OpenAI modelljei 50%-os pontossággal „ hallucinálnak” – alkalmasak-e a katonai felhasználásra?
Az Anthropic és az OpenAI modelljeinek 50%-os pontossága miatt a szakértők aggódnak, hogy a technológia alkalmatlan a katonai felhasználásra, mivel a „hallucinációk” miatt az eszközök nem tudnak megbí

Az Anthropic és az OpenAI modelljeinek pontossága miatt a szakértők aggódnak, hogy a technológia alkalmatlan a katonai felhasználásra — írja a Heidy Khlaaf, az AI Now Institute fő AI szakértője.
Az AI Now Institute hangsúlyozza, hogy a Lethal Autonomous Weapons Systems (LAWS) használata komoly etikai és biztonsági kérdéseket vet fel, különösen az Anthropic és az OpenAI modelljeinek 50%-os pontossága miatt.
A hiányzó láncszem
Az Anthropic modelljei nem megfelelőek a LAWS számára, ami arra utal, hogy nem megbízhatóak az AI-Decision Support Systems (DSS) számára sem — közölte az AI Now Institute.
Az ilyen technológiák használata katonai környezetben konfliktusokat eredményezhet, amelyekben a támadások nem különböztetik meg a civileket és a katonákat — figyelmeztet az intézet.
Ahol a számok beszélnek
Az Anthropic és az OpenAI modelljeinek „hallucinációi” az algoritmikus természetük miatt inherens tulajdonságok, amelyek a jövőben is fennmaradhatnak — mondja az AI Now Institute, és hangsúlyozza, hogy az ilyen technológiák használata 2025-ben a NATO által szervezett katonai gyakorlatokon is szerepelhet.