A LLM-eknek hiányzik a lustaság erénye Cantrill szerint: rendszerek nőnek, de nem javulnak
Bryan Cantrill, a technológiai ipar ismert alakja, úgy véli, a LLM-ek nem optimalizálnak a jövőbeli időre, és ez komoly problémákat okozhat a rendszerek tervezésében.

A LLM-ekből hiányzik a lustaság erénye, ami alapvető emberi tulajdonság, és e hiány miatt a rendszerek inkább nagyobbá, mintsem jobbak legyenek — írja Simon Willison blogján, Bryan Cantrill gondolatait idézve.
Cantrill szerint a nagyméretű nyelvi modelleknek (LLM) nem kerül semmibe a munka, így nem éreznek késztetést arra, hogy optimalizáljanak saját vagy mások jövőbeli idejére. Ehelyett „boldogan dobálnak egyre többet egy szemétrétegre”, ami ellenőrizetlenül hagyva a rendszerek elburjánzásához vezet.
A hatékony absztrakció elvesztése
Az emberi lustaság kulcsszerepet játszik a hatékony absztrakciók kialakításában. Véges időnk arra kényszerít minket, hogy tiszta, áttekinthető megoldásokat fejlesszünk, részben azért, mert nem akarunk időt pazarolni a bonyolult, rosszul megtervezett rendszerek következményeire.
Rendszerek növekedése, minőség romlása
Cantrill ezzel szemben úgy látja, a LLM-ek nem érzik ezt a kényszert. Nem optimalizálnak a jövőbeli időre, és nem motiváltak a hatékonyságra vagy a letisztult designra. A mesterséges intelligencia-alapú rendszerek tervezése során kulcsfontosságú lesz az emberi felügyelet és az absztrakciós elvek fenntartása, ha el akarjuk kerülni a rendszerek méretének indokolatlan növekedését, a minőség romlása mellett, ahogy ezt 2024-ben a technológiai iparágban várhatjuk.