Az OpenAI szerint a GPT modellnek van "látótere" az AGI-hez
Több kutató, köztük Yann LeCun és Demis Hassabis, vitatja az OpenAI álláspontját, és úgy gondolják, hogy a nagy nyelvi modellek önmagukban nem elegendőek az általános intelligencia eléréséhez.

Az OpenAI elnöke, Greg Brockman szerint a GPT okoskodó modelleknek van "kilátása" az általános intelligenciára (AGI). Brockman úgy gondolja, hogy a GPT architektúra közvetlen út az AGI-hez, és az OpenAI prioritását ennek a megközelítésnek a fejlesztésére helyezi.
Az OpenAI korábban bezárta a Sora appot és modellt, és a világmodell-kutatást mostantól csak kisebb léptékben, robotics területen folytatja. Brockman a Sora modellt "incredible model"-nek nevezi, de hangsúlyozza, hogy az egy másik ágon helyezkedik el a technológiai fejlődésben, mint a GPT okoskodó sorozat.
A kutatók között továbbra is élénk vita folyik arról, hogy a nagy nyelvi modellek (LLM) elégnek lesznek-e az általános intelligencia eléréséhez. Yann LeCun, a neves AI-kutató szerint az LLM-ek nem lesznek képesek elérni az emberhez hasonló intelligenciát, mivel korlátozott logikai megértésük van, nem értik a fizikai világot, nincs állandó memóriájuk, nem tudnak racionálisan gondolkodni és nem tudnak hierarchikusan tervezni.
Demis Hassabis, a Deepmind alapítója hasonló véleményen van: az LLM-ek skálázása önmagában nem elegendő, további áttörések szükségesek. Az AI-kutató, Francois Chollet szerint az intelligencia azon múlik, hogy egy rendszer milyen jól képes új készségeket megtanulni. A jelenlegi nyelvi modellek egy intelligencia-skálán elhelyezhetők, de nagyon alacsony rangot foglalnak el. Az eddig tanultakon kívül mindent újra kell tanuljanak.
Az OpenAI döntése, hogy a GPT architektúrát részesíti előnyben a multimodális világmodellekkel szemben, további kérdéseket vet fel a szakmai közösségben. Vajon az OpenAI túl korán zárta le a Sora modellt, vagy a GPT architektúra valóban az általános intelligencia elérésének a legjobb úton van?