A kutatók modellje szerint a felhasználók bízhatnak az AI-fejlesztőkben, ha olcsó a monitoring
Adeela Bashir és 23 társ szerző modellje szerint a felhasználók bízhatnak az AI-fejlesztőkben, ha olcsó a monitoring, a kutatók 24 oldalas tanulmányt tettek közzé az arXiv-en

A kutatók modellje szerint a felhasználók bízhatnak az AI-fejlesztőkben, ha olcsó a monitoring. Adeela Bashir és 23 társ szerző modellje szerint a felhasználók bízhatnak az AI-fejlesztőkben, ha olcsó a monitoring, a kutatók 24 oldalas tanulmányt tettek közzé az arXiv-en. A tanulmány szerint a felhasználók bízhatnak az AI-fejlesztőkben, ha a monitoring költsége alacsony, és a fejlesztőknek érdekük, hogy biztonságos AI-rendszereket fejlesszenek.
Az AI-biztonság egyre sürgetőbb aggodalom, ahogy az AI-rendszerek képességei és elfogadása nő. A meglévő evolúciós modellek korlátai, hogy nem veszik figyelembe a felhasználók és az AI-fejlesztők közötti ismétlődő interakciókat. A kutatók modellje szerint a felhasználók bízhatnak az AI-fejlesztőkben, ha a monitoring költsége alacsony, és a fejlesztőknek érdekük, hogy biztonságos AI-rendszereket fejlesszenek.
A kutatók az evolúciós játékelméletet használták, hogy tanulmányozzák, hogyan alakulnak a felhasználók bizalmi stratégiái és a fejlesztők döntései a biztonságos és a nem biztonságos AI-rendszerek fejlesztésére. A kutatók három stabil hosszú távú rendszert találtak: a nem biztonságos AI-rendszerek fejlesztése, a biztonságos AI-rendszerek fejlesztése, és a felhasználók bizalma a fejlesztőkben. A kutatók szerint a biztonságos AI-rendszerek fejlesztése és a felhasználók bizalma a fejlesztőkben csak akkor alakul ki, ha a monitoring költsége alacsony, és a fejlesztőknek érdekük, hogy biztonságos AI-rendszereket fejlesszenek.
Az eredmények támogatják a kormányzati javaslatokat, amelyek hangsúlyozzák az átláthatóságot, a költséghatékony monitoringot és a hatékony szankciókat. A kutatók szerint a szabályozás önmagában nem elegendő a biztonságos AI-rendszerek fejlesztéséhez, hanem a felhasználók bizalmát is szükséges figyelembe venni.
A kutatók tanulmánya fontos lépés az AI-biztonság területén, és hozzájárulhat a biztonságos AI-rendszerek fejlesztéséhez. A kutatók eredményei alapján a fejlesztőknek és a kormányzatoknak fontos figyelembe venni a felhasználók bizalmát és a monitoring költségét, amikor az AI-rendszerek fejlesztéséről döntenek.