A Microsoft Bing csapata nyílt forrásúvá tette a GPT-5-tel tanított modellt
A Harrier a többnyelvű MTEB v2 teljesítményteszten is az első helyen végzett, felülmúlva az OpenAI és az Amazon saját fejlesztésű modelljeit.

A több mint 100 nyelvet támogató Harrier modell 32 000 token kontextusablakot kínál, és kétmilliárd példán, valamint GPT-5-től származó szintetikus adatokon tanulta a Microsoft Bing csapata — írja a The Decoder.
Az úgynevezett embedding modellek feladata az információk keresése, visszakeresése és rendszerezése, amelyekre az AI-rendszereknek a pontos válaszokhoz szükségük van. A Microsoft szerint egyre kritikusabbá válnak, ahogy az AI-ügynökök önállóan végeznek összetettebb, több lépésből álló feladatokat.
A 27 milliárd paraméteres modell mellett két kisebb változatot is kiadott a csapat: egy 0,6 milliárdos és egy 270 milliós verziót. Ezeket gyengébb hardvereken való futtatásra tervezték. Mindhárom modell elérhető a Hugging Face platformon, MIT licenc alatt.
A Microsoft tervei szerint a technológiát a Bingbe és az AI-ügynökök új alapozó szolgáltatásaiba is integrálják majd. A Harrier-oss-v1-27b modell 78%-os pontossággal végzett a teszteken, maximális tokenszáma 131072.