Pentagon-megállapodás: Az OpenAI biztonsági korlátai feloldhatatlanok
Heidy Khlaaf, az AI Now Institute fő AI szakértője szerint a generatív AI biztonsági korlátai jelenleg nem elegendőek a magas kockázatú döntésekhez

Az OpenAI és a Pentagon között létrejött megállapodás nyomán felmerülő egyik legfontosabb kérdés, hogy a generatív AI rendszerek milyen biztonsági korlátokkal rendelkeznek a magas kockázatú döntésekhez.
Heidy Khlaaf, az AI Now Institute fő AI szakértője hangsúlyozza, hogy jelenleg nem állnak rendelkezésre elegendő biztonsági garanciák a generatív AI rendszerek számára, különösen a magas kockázatú döntések esetében.
Az AI Now Institute szerint a generatív AI rendszerek biztonsági korlátai könnyen megsérülhetnek, akár szándékosan, akár akaratlanul, ami komoly aggodalmakat vet fel a technológia használata kapcsán.
Az intézet hangsúlyozza, hogy a magas kockázatú döntésekhez, például a katonai és megfigyelési műveletekhez, különösen fontos lenne a megfelelő biztonsági intézkedések megléte.
Az OpenAI és a Pentagon közötti megállapodás hátterében álló biztonsági kihívásokat az AI Now Institute továbbra is nyomon követi, és szakértői elemzést nyújt a technológia fejlődéséről és annak társadalmi hatásairól.
A valódi próba még hátravan: a biztonsági korlátok hiánya komoly veszélyt jelent a technológia használata során, és az AI Now Institute szerint sürgős megoldást igényel.