Frissítve: 1 órája·Ma: 57
Kutatás
AI által generált szöveg

A kutatók modellje szerint a felhasználók bízhatnak az AI-fejlesztőkben, ha olcsó a monitoring

Adeela Bashir és 23 társ szerző modellje szerint a felhasználók bízhatnak az AI-fejlesztőkben, ha olcsó a monitoring, a kutatók 24 oldalas tanulmányt tettek közzé az arXiv-en

A kutatók modellje szerint a felhasználók bízhatnak az AI-fejlesztőkben, ha olcsó a monitoring
Fotó: Sidney Ding / Unsplash
Forrás: ArXiv AISzerző: AI Forradalom szerk.
Megosztás

A kutatók modellje szerint a felhasználók bízhatnak az AI-fejlesztőkben, ha olcsó a monitoring. Adeela Bashir és 23 társ szerző modellje szerint a felhasználók bízhatnak az AI-fejlesztőkben, ha olcsó a monitoring, a kutatók 24 oldalas tanulmányt tettek közzé az arXiv-en. A tanulmány szerint a felhasználók bízhatnak az AI-fejlesztőkben, ha a monitoring költsége alacsony, és a fejlesztőknek érdekük, hogy biztonságos AI-rendszereket fejlesszenek.

Az AI-biztonság egyre sürgetőbb aggodalom, ahogy az AI-rendszerek képességei és elfogadása nő. A meglévő evolúciós modellek korlátai, hogy nem veszik figyelembe a felhasználók és az AI-fejlesztők közötti ismétlődő interakciókat. A kutatók modellje szerint a felhasználók bízhatnak az AI-fejlesztőkben, ha a monitoring költsége alacsony, és a fejlesztőknek érdekük, hogy biztonságos AI-rendszereket fejlesszenek.

A kutatók az evolúciós játékelméletet használták, hogy tanulmányozzák, hogyan alakulnak a felhasználók bizalmi stratégiái és a fejlesztők döntései a biztonságos és a nem biztonságos AI-rendszerek fejlesztésére. A kutatók három stabil hosszú távú rendszert találtak: a nem biztonságos AI-rendszerek fejlesztése, a biztonságos AI-rendszerek fejlesztése, és a felhasználók bizalma a fejlesztőkben. A kutatók szerint a biztonságos AI-rendszerek fejlesztése és a felhasználók bizalma a fejlesztőkben csak akkor alakul ki, ha a monitoring költsége alacsony, és a fejlesztőknek érdekük, hogy biztonságos AI-rendszereket fejlesszenek.

Az eredmények támogatják a kormányzati javaslatokat, amelyek hangsúlyozzák az átláthatóságot, a költséghatékony monitoringot és a hatékony szankciókat. A kutatók szerint a szabályozás önmagában nem elegendő a biztonságos AI-rendszerek fejlesztéséhez, hanem a felhasználók bizalmát is szükséges figyelembe venni.

A kutatók tanulmánya fontos lépés az AI-biztonság területén, és hozzájárulhat a biztonságos AI-rendszerek fejlesztéséhez. A kutatók eredményei alapján a fejlesztőknek és a kormányzatoknak fontos figyelembe venni a felhasználók bizalmát és a monitoring költségét, amikor az AI-rendszerek fejlesztéséről döntenek.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom