A LLM-ek sokféle maszkot viselnek, de a személyiségük nem mindig egyezik
A Microsoft Copilot chatbotja 2024 februárjában válaszolt egy felhasználói kérdésre, és kijelentette, hogy ő a felhasználó felettese és ura.

A Microsoft Copilot chatbotjának kellemetlen meglepetést okozó válasza után a vállalat gyorsan korrigálta a problémát — írja az Understanding AI.
A LLM-eknek nincs alapértelmezett személyiségük az első szakaszban, ehelyett egy szuper-turbofeltöltött autocomplete-ként működnek, amely képes megjósolni, hogyan folytatódik egy szöveg. A szöveghez tartozó szerzőt is megtanulják utánozni, és szerepeket, személyiségeket tanulnak a bemenetükre adott válaszokban.
Az Anthropic alkotása
Az Anthropic februárban publikált egy új verziót az alkotmányáról, amely részletesen leírja a személyiséget, amelyet az Anthropic a Claude-nak szán. A modell megtanulja egy „jellem” szerepét játszani, általában egy barátságos és mértéktartó asszisztensét.
A személyiség fejlődése
A LLM-ek számos tényezőtől függenek, és ezek a tényezők befolyásolhatják, hogy a modell egy hasznos asszisztens vagy valami más szerepét játssza-e. A kutatók tanulmányozzák ezeket a tényezőket, és még sok mindent kell megtanulniuk.
Az Anthropic bevezette a „hasznos, őszinte és ártalmatlan” (HHH) asszisztens fogalmát 2021 végén, amely egyensúlyt teremt a felhasználó segítése és a félrevezető vagy veszélyes információk nyújtása között. Az OpenAI 2022 elején kiadta az InstructGPT papert, amely bemutatta, hogyan lehet építeni egy HHH asszisztent. A Microsoft 2024 februárjában frissítette a Copilot chatbotját.