Az NXP csendben forradalmasítja a beágyazott platformokon futó robotikai AI-t
Több mint 20%-kal növelhető a robotikai AI sikeraránya, ha a felvételek során a gripperhez rögzített kamerát használunk.

A NXP a 2026. március 5-én közölte, hogy sikerült a Vision–Language–Action (VLA) modellek beépítését a beágyazott robotikai platformokra. A cég bemutatta a saját, i.MX 95 SoC‑t, amelyet finomhangolva 20 %-kal növeli a robotikai AI sikerarányát, ha a felvételek során a gripperhez rögzített kamerát használják.
Miért fontos ez? A VLA rendszereknek valós‑időben kell döntéseket hozniuk, miközben a robotikának szinkronizálni kell a mozgást. Ha a modellek szinkron módon futnak, az arm üresen vár, ami rezgést és késleltetést eredményez. Az aszinkron inferencia lehetővé teszi a folytonos mozgást, de a teljes késleltetésnek rövidebbnek kell lennie, mint az akciók végrehajtási ideje. Ilyen szempontok miatt nem elegendő a modell tömörítése; szükség van architekturális bontásra, késleltetés‑tudatos ütemezésre és hardverhez igazított végrehajtásra.
A NXP megoldása a megbízható adatgyűjtés köré épül. A cég a "Put the tea bag in the mug" feladathoz 11, 10 × 10 cm-es kluszterre bontott környezetben rögzített 10‑től több mint 20‑ig terjedő, különböző pozíciójú és forgású példányokat. A gripperhez rögzített kamera 3‑kamerás konfigurációban (felső, gripper, bal) segít, hogy a robot a saját észlelése alapján döntsen, nem pedig a külső szemlélet alapján. A gripper kamerát szigorúan a robot látási területére helyezték, és a kábel szivárgás elleni védelme, például Velcro vagy feszültségoldó segéd, biztosítja a folyamatos adatfolyamot.
A technikai részletek szerint a finomhangolt VLA modellek – például a SmolVLA és ACT – a i.MX 95 SoC‑n futnak, amely a beágyazott környezetben 20 %-kal gyorsabb végrehajtást tesz lehetővé. A rendszer a VLA policy‑t a reális időben optimalizálja, miközben a modell áteresztőképessége a hardverhez igazodik, így elkerülve a szinkronizációs problémákat.
Mi a következő lépés? A NXP a jövő hónapokban tervez további demonstrációkat és nyílt forráskódú eszközöket a dataset‑gyűjtéshez, valamint a VLA finomhangolásához. A cég szerint a következő iterációk során a modellek méretét tovább csökkentik, miközben a sikerarányot a 20 %-os növekedésen túl is bővítik. A fejlesztőknek érdemes figyelniük a hivatalos blogbejegyzéseket és a Hugging Face‑en elérhető kódtárakat, hogy időben alkalmazhassák a legfrissebb best practice‑ket a saját robotikájukban.