Frissítve: 15 perce·Ma: 49
Modellek & LLM
AI által generált szöveg

Proxy-Pointer RAG: A Vectorless RAG nagy sebességgel és alacsony költséggel

A Proxy-Pointer RAG 137 LLM-hívást igényel az indexelési fázisban, szemben a standard vektoros RAG 0 hívásával.

Proxy-Pointer RAG: A Vectorless RAG nagy sebességgel és alacsony költséggel
Fotó: Mathew Schwartz / Unsplash
Forrás: Towards Data ScienceSzerző: AI Forradalom szerk.
Megosztás

A Proxy-Pointer RAG kidolgozása során a fejlesztők 137 LLM-hívást igénylő indexelési fázist valósítottak meg, amelyhez képest a standard vektoros RAG nulla hívást igényel — írja a Towards Data Science.

A PageIndex alapú megközelítés helyett a Proxy-Pointer RAG egy olyan technológiát alkalmaz, amely a vektor nélküli RAG pontosságát és a vektoros RAG sebességét egyesíti. Ezt a technológiát egy nagy, összetett dokumentumon, a Világbank Dél-Ázsia Fejlesztési Frissítése című jelentésén mutatják be.

A hiányzó láncszem

A PageIndex egy szemantikus vázat hoz létre a dokumentumról, amely egy hierarchikus térkép, amely tartalmazza a dokumentum minden szakaszát, alszakaszát és tartalmi blokkját. Ezt a vázat egy LLM használja a lekérdezések feldolgozására.

A PageIndex két fázisból áll: az indexelési fázis, amelyben a dokumentumot feldolgozzák és a szemantikus vázat létrehozzák, és a lekérdezési fázis, amelyben a felhasználó kérdésére válaszolnak. A PageIndex a dokumentum strukturális navigációját használja, nem mintaegyezést, és a kontextust a teljes, összefüggő szakaszból nyeri ki, nem pedig törött szakaszokból.

Ahol a számok beszélnek

A Proxy-Pointer RAG a PageIndex erősségeit és a vektoros RAG sebességét egyesíti, és egy olyan technológiát kínál, amely a vektor nélküli RAG pontosságát nyújtja, anélkül, hogy a PageIndex lassúságát és költségességét örökelné — közölte a Towards Data Science.

A fejlesztők a World Bank jelentésének feldolgozásával kezdik a Proxy-Pointer RAG technológiáját, 2026 áprilisában.

Megosztás

Tetszik az oldal? Támogasd a fejlesztést

Az AI Forradalom egy automatizált pipeline: napi adatgyűjtés, LLM-feldolgozás és infrastruktúra fenntartása valódi költségekkel jár. Ha értékesnek találod a tömör, naprakész AI-összefoglalókat, egy kávé sokat segít.

Támogatom