Frissítve: 15 perce·Ma: 49
Biztonság
AI által generált szöveg

Az Anthropic és az OpenAI modelljei 50%-os pontossággal „ hallucinálnak” – alkalmasak-e a katonai felhasználásra?

Az Anthropic és az OpenAI modelljeinek 50%-os pontossága miatt a szakértők aggódnak, hogy a technológia alkalmatlan a katonai felhasználásra, mivel a „hallucinációk” miatt az eszközök nem tudnak megbí

Az Anthropic és az OpenAI modelljei 50%-os pontossággal „ hallucinálnak” – alkalmasak-e a katonai felhasználásra?
Fotó: Sergey Koznov / Unsplash
Forrás: AI Now InstituteSzerző: AI Forradalom szerk.
Megosztás

Az Anthropic és az OpenAI modelljeinek pontossága miatt a szakértők aggódnak, hogy a technológia alkalmatlan a katonai felhasználásra — írja a Heidy Khlaaf, az AI Now Institute fő AI szakértője.

Az AI Now Institute hangsúlyozza, hogy a Lethal Autonomous Weapons Systems (LAWS) használata komoly etikai és biztonsági kérdéseket vet fel, különösen az Anthropic és az OpenAI modelljeinek 50%-os pontossága miatt.

A hiányzó láncszem

Az Anthropic modelljei nem megfelelőek a LAWS számára, ami arra utal, hogy nem megbízhatóak az AI-Decision Support Systems (DSS) számára sem — közölte az AI Now Institute.

Az ilyen technológiák használata katonai környezetben konfliktusokat eredményezhet, amelyekben a támadások nem különböztetik meg a civileket és a katonákat — figyelmeztet az intézet.

Ahol a számok beszélnek

Az Anthropic és az OpenAI modelljeinek „hallucinációi” az algoritmikus természetük miatt inherens tulajdonságok, amelyek a jövőben is fennmaradhatnak — mondja az AI Now Institute, és hangsúlyozza, hogy az ilyen technológiák használata 2025-ben a NATO által szervezett katonai gyakorlatokon is szerepelhet.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom