A CERN miniatűr AI modelleket használ a valós idejű LHC adatfeldolgozásban
Több mint 40 ezer exabájt adatot termel évente a LHC, amit csak miniatűr AI modellekkel lehet valós időben feldolgozni.

A CERN a legújabb, 27 kilométeres LHC-ben generált 40 000 exabájtos adatot – a globális internet negyedét – csak mini AI modellek segítségével tud valós időben szűrni. A fizikai szilíciumra „égetett” modellek, főként FPGA- és ASIC-alapúak, 50 nanomásig reagálnak, így a detektorok 25 nanomásos ütközéseinél döntéseket hoznak.
Az LHC-ben a protonok 25 nanomásos időközönként találkoznak, de csak 0,02 % esemény tartalmaz valószínűleg új tudományos értéket. Ezért a Level‑1 Trigger – 1 000 FPGA‑ból álló, AXOL1TL algoritmussal futó rendszer – a detektorból származó több megabájtot szűri le, és a nem érdekes adatot azonnal törli.
A modellek a HLS4ML nyílt forráskódú eszközzel kerülnek fordításra, ami a PyTorch vagy TensorFlow modelleket szintetizálható C++‑ké alakítja. A hardverben egy jelentős rész a hálózat helyett előre számított lookup‑táblák tárolására szolgál, így a legtöbb jel gyorsan feldolgozható, anélkül, hogy lebegőpontos számításra lenne szükség.
A Level‑1 Trigger után a High‑Level Trigger farm – 25 600 CPU és 400 GPU – még további terabájtos adatot csökkent a naponta egy petabájtra, amely a tudományos elemzés alapját képezi.
A következő 2031‑ben bekövetkező High‑Luminosity LHC (HL‑LHC) felújítás várhatóan tízszeres adatáramot hoz. CERN már dolgozik a következő generációs mini AI modelleken és a hardveres architektúrák finomhangolásán, hogy a nyomásnövekedés ellenére is megőrizze a nanomásos késleltetést.