Frissítve: 18 perce·Ma: 38
Alkalmazások
AI által generált szöveg

Az AI-kód 43%-a hibásan kerül élesbe: a Lightrun felmérése szerint kézi debug kell

A hibás kódok miatt a fejlesztőknek komoly kihívásokkal kell szembenézniük, ami lassíthatja a termelést és növelheti a költségeket.

Az AI-kód 43%-a hibásan kerül élesbe: a Lightrun felmérése szerint kézi debug kell
Fotó: Bernd 📷 Dittrich / Unsplash
Forrás: VentureBeatSzerző: AI Forradalom szerk.
Megosztás

Az AI által generált kódmódosítások 43%-a manuális debugolást igényel az éles környezetben, még azután is, hogy átment a minőségbiztosítási és staging teszteken — derül ki a Lightrun 2026-os jelentéséből, amelyet a VentureBeat-tel osztottak meg.

A felmérés 200 vezető site-reliability és DevOps szakembert kérdezett meg nagyvállalatoknál az Egyesült Államokban, az Egyesült Királyságban és az Európai Unióban. Egyetlen válaszadó sem állította, hogy szervezete egyetlen újraindítási ciklussal ellenőrizni tudna egy AI által javasolt javítást; 88% két-három ciklust, míg 11% négy-hat ciklust jelölt meg.

Az Amazon esete intő jel

A veszélyek már nem elméletiek. Az Amazon 2026. március elején több nagy horderejű leállást szenvedett el, amelyek pontosan azt a hibamintázatot mutatták be, amit a Lightrun felmérése leír. Március 2-án az Amazon.com közel hatórás fennakadást tapasztalt, ami 120 000 elveszett rendelést és 1,6 millió weboldalhibát eredményezett. Három nappal később, március 5-én egy súlyosabb leállás érte az áruházat – ez is hat órán át tartott, és 99%-os csökkenést okozott az amerikai rendelési volumenben, körülbelül 6,3 millió elveszett rendeléssel. Mindkét incidenst AI-asszisztált kódmódosításokhoz vezették vissza, amelyeket megfelelő jóváhagyás nélkül telepítettek éles környezetbe.

A következmények gyorsak voltak. Az Amazon 90 napos kód-biztonsági visszaállítást indított 335 kritikus rendszeren, és az AI-asszisztált kódmódosításokat mostantól vezető mérnököknek kell jóváhagyniuk a telepítés előtt. Or Maimon, a Lightrun üzleti igazgatója szerint „az iparág termelékenységre való fókuszálása szükségessé tette az AI-t, de közvetlen negatív hatást látunk. Ahogy az AI által generált kód bekerül a rendszerbe, nemcsak növeli a volument; lelassítja az egész telepítési folyamatot.”

A fejlesztők munkaidejének jelentős része a hibakeresésre megy el

A jelentés egyik legmegdöbbentőbb megállapítása az AI-val kapcsolatos ellenőrzési munkára fordított emberi erőforrás mértéke. A felmérés szerint a fejlesztők munkaidejük átlagosan 38%-át – nagyjából két teljes napot – hibakeresésre, ellenőrzésre és környezetspecifikus hibaelhárításra fordítják. A megkérdezett vállalatok 88%-ánál ez a „megbízhatósági adó” a fejlesztők heti kapacitásának 26% és 50% közötti részét emészti fel. A Google 2025-ös DORA jelentése is megerősíti ezt a dinamikát, miszerint az AI-bevezetés a kód instabilitásának növekedésével jár, és a fejlesztők 30%-a kevésbé vagy egyáltalán nem bízik az AI által generált kódban.

A Lightrun jelentése szerint a mélyebb strukturális probléma az úgynevezett „runtime láthatósági rés” – az AI eszközök és a meglévő monitorozó rendszerek képtelensége arra, hogy megfigyeljék, mi történik a futó alkalmazásokban. A válaszadók 60%-az a live rendszer viselkedésének láthatóságának hiányát jelölte meg a gyártási incidensek megoldásának elsődleges szűk keresztmetszeteként. A mérnöki vezetők 97%-a szerint az AI SRE ügynökeik jelentős láthatóság nélkül működnek abban, ami valójában történik az éles környezetben. Mindössze 1% számolt be kiterjedt láthatóságról, és egyetlen válaszadó sem állította, hogy teljes láthatósággal rendelkezik.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom