Új finomhangolási módszerrel javulhat a Qwen3-8B érvelési képessége
A mesterséges intelligencia modellek finomhangolása során gyakran romlik a teljesítmény, ha a tanító modell stílusa eltér a tanulóétól, de egy új módszer orvosolhatja ezt a problémát.

Jelentős stílusbeli eltérések okozták eddig a problémát a szintetikus adatokkal történő modellbetanításnál, ami gyakran rontotta, ahelyett, hogy javította volna az érvelési képességeket — írja az ArXiv NLP.
A kutatók most egy új keretrendszert, a TESSY-t (Teacher-Student Cooperation Data Synthesis framework) javasolják, amely áthidalja ezt a szakadékot. A TESSY a tanító és a tanuló modelleket felváltva használja a stílus- és nem-stílus tokenek generálására.
Ennek eredményeként a TESSY olyan szintetikus adatsorokat hoz létre, amelyek öröklik a tanító modell fejlett érvelési képességeit, miközben fenntartják a stílusbeli konzisztenciát a tanuló modell eloszlásával.
Kísérletek során a GPT-OSS-120B tanító modellként való használatával, a Qwen3-8B finomhangolása jelentős javulást mutatott a kódgenerálásban.