Hasznosság Ă©s diverzitás egyĂĽtt: Ăgy gyorsĂthatĂł az SFT finomhangolás, miközben javul a robusztusság EdTech-ben Ă©s az egĂ©szsĂ©gĂĽgyi NLP-ben.

Hasznosság + diverzitás: gyorsabb finomhangolás SFT-ben
A legtöbb fine-tuning projekt ott csĂşszik el, ahol a legdrágább: a tanĂtĂładat kiválasztásánál. Nem a modellarchitektĂşrán, nem a „melyik LLM-et válasszuk” vitán, hanem azon, hogy mit etetĂĽnk a modellel, Ă©s milyen sorrendben. És ez 2025 vĂ©gĂ©n kĂĽlönösen fájdalmas, mert a számĂtási kapacitás ára nem lett varázsĂĽtĂ©sre olcsĂłbb, viszont a vállalati elvárás az lett: gyorsabban, olcsĂłbban, kevesebb kockázattal.
A friss kutatás (UDS – Utility-Diversity Sampling) arra tesz egy nagyon gyakorlatias javaslatot: ne csak a „hasznos” pĂ©ldákat válogasd be a supervised fine-tuning (SFT) batch-ekbe, hanem a „kĂĽlönböző” pĂ©ldákat is – ráadásul Ăşgy, hogy ehhez ne kelljen kĂĽlsĹ‘ referencia modell, validáciĂłs kĂ©szlet, vagy extra backprop, ami mĂ©g tovább drágĂtja a trĂ©ninget.
És bár a cikk gĂ©pi tanulás fĂłkuszĂş, Ă©n kifejezetten szeretem oktatási (EdTech) Ă©s egĂ©szsĂ©gĂĽgyi (clinical NLP) szemmel olvasni: ugyanaz a problĂ©ma jelenik meg mindkĂ©t terĂĽleten. Ha a tanĂtĂładat homogĂ©n, a modell is homogĂ©n lesz a hibáiban.
Miért nem elég a „legjobb” adatokra lőni?
Válasz elsőként: azért, mert a „legjobb” sokszor csak a „legkönnyebb” vagy a „leggyakoribb” – és ettől a modell szűk látókörűvé válik.
Az SFT során a legtöbb csapat ösztönösen Ăgy gondolkodik:
- „Válasszuk ki a leginformatĂvabb pĂ©ldákat.”
- „Ami nagy loss-t ad, azon tanul a modell.”
- „A gyenge minőségű példákat dobjuk ki.”
Ezzel önmagában nincs baj. A gond ott van, hogy a hasznosság (utility) mérése könnyen rááll a többségi mintákra.
Oktatásban: amikor a platform „ráneveli” a modellt az átlagtanulóra
EdTech környezetben tipikus helyzet: a rendszerben a legtöbb interakciĂł a közĂ©pszintű feladatok körĂĽl törtĂ©nik, ezĂ©rt a modell ezekben lesz magabiztos. A ritkább tanulĂłi utak (tanulási zavarokkal Ă©lĹ‘k, tehetsĂ©ggondozás, eltĂ©rĹ‘ anyanyelv) alulreprezentáltak. Ha ilyenkor csak „utility” alapon válogatsz, a modell az „átlag tanulĂłi viselkedĂ©st” fogja tökĂ©letesĂteni.
Egészségügyben: a bias amplifikáció kézzelfogható kockázat
Clinical NLP-ben (zárójelentés-összegzés, triázs-támogatás, betegút-ajánlás) ugyanez keményebb következményekkel jár:
- ritka betegségek
- atipikus tünetkombinációk
- eltérő demográfiai csoportok nyelvhasználata
Ha a kiválasztás csak hasznosságra optimalizál, könnyen felerĹ‘södnek a meglĂ©vĹ‘ torzĂtások.
Online batch selection: mit jelent, Ă©s miĂ©rt számĂt 2025-ben?
Válasz elsőként: az online batch selection azt jelenti, hogy tréning közben, folyamatosan döntesz arról, mely példák kerüljenek a következő batch-be – nem előre „kőbe vésve”.
A klasszikus Ăşt: elĹ‘kĂ©szĂtesz egy tanĂtĂłhalmazt, Ă©s vĂ©gigtrĂ©nelsz rajta. Ez drága, Ă©s sokszor felesleges. Az online kiválasztás logikája egyszerű:
- A modell megnéz egy csomó jelölt példát.
- Gyorsan pontozza őket (melyik „éri meg” tanulás szempontból).
- A következő batch-be a legjobbak kerülnek.
A kutatás szerint a meglévő népszerű módszerek gyakran három problémába futnak:
- csak utility alapján válogatnak, diverzitás nélkül
- külső erőforrást igényelnek (pl. referencia modell, validációs készlet)
- extra tréningidőt okoznak (pl. felesleges backprop lépések)
Ez a hármas különösen érzékeny az egészségügyi és oktatási projektekben, ahol:
- idĹ‘ablakok szorosak (szemeszterindulás, pilot az osztálytermekben; klinikai rendszerfrissĂtĂ©s)
- költségkeretek fixek
- auditálhatóság és kockázatkezelés elvárt
UDS (Utility-Diversity Sampling): mi az ötlet lényege?
Válasz elsőként: az UDS két dolgot egyszerre akar optimalizálni: (1) a batch legyen hasznos a tanuláshoz, és (2) ne legyen önismétlő, hanem tartalmazzon változatos mintákat.
A módszer két szinten beszél diverzitásról:
1) Intra-sample diverzitás: „egy példán belüli változatosság”
Az UDS a modell logitjaibĂłl (kimeneti pontszámokbĂłl) Ă©pĂt egy mátrixot, Ă©s ennek nukleáris normáját használja jelzĹ‘számkĂ©nt. IntuĂciĂł:
- ha a logitstruktúra „gazdagabb”, több irányba ad információt a modellnek
- Ăgy a minta nem csak „nehezen megoldható”, hanem többfĂ©lekĂ©pp tanĂtĂł jellegű
Nem kell hozzá külön validációs készlet. Nem kell referencia modell. A jel a tréning közben rendelkezésre áll.
2) Inter-sample diverzitás: „a batch-en belüli különbözőség”
A második rĂ©sz egy nagyon gyakorlatias trĂĽkk: az UDS alacsony dimenziĂłs embeddingekkel hasonlĂtja össze az Ăşj jelölteket a korábban kiválasztott mintákkal, Ă©s egy könnyű memĂłriapuffert tart fenn a „törtĂ©neti” pĂ©ldákbĂłl.
Ennek az ĂĽzenete a gyakorlatnak:
Nem elĂ©g, hogy egy pĂ©lda jĂł. Az is számĂt, hogy ne legyen a batch tele ugyanazzal a mintával tĂzfĂ©le csomagolásban.
Mit jelent ez EdTech-ben? Jobb adaptĂv tanulás kevesebb trĂ©ningbĹ‘l
Válasz elsĹ‘kĂ©nt: az UDS-szerű szelekciĂł az adaptĂv tanulási rendszerekben csökkenti az „átlagra tanĂtás” kockázatát, miközben gyorsĂtja a modellfrissĂtĂ©seket.
Ha például egy LLM-et finomhangolsz:
- automatikus feladatmagyarázatokhoz
- dolgozat-jellegű szöveges válaszok értékeléséhez
- tutor chathez
akkor az adatod tipikusan sok ismĂ©tlĂ©st tartalmaz (ugyanaz a hiba, ugyanaz a fĂ©lreĂ©rtĂ©s). Utility alapon ezeket a modellek imádják „tĂşlgyakorolni”. A diverzitás-kĂ©nyszer viszont segĂt abban, hogy bekerĂĽljenek:
- ritkább tévképzetek
- eltérő szókincsű tanulói megfogalmazások
- kĂĽlönbözĹ‘ feladattĂpusok (nyĂlt, feleletválasztĂłs, Ă©rvelĹ‘s)
Egy kézzelfogható példa: értékelő modell magyar nyelvű esszékre
TegyĂĽk fel, hogy egy esszéértĂ©kelĹ‘ modellt tanĂtasz. A legtöbb tanulĂł ugyanazokat a „biztonságos” fordulatokat használja, Ăgy a tanĂtĂładat is egyhangĂş. Ha a batch szelekciĂł figyeli a diverzitást, akkor nagyobb esĂ©llyel kerĂĽlnek be:
- kreatĂv, de nyelvtanilag bizonytalan megoldások
- rövid, tömör válaszok a hosszú helyett
- tájnyelvi vagy informális elemeket tartalmazó szövegek
EttĹ‘l a modell kevĂ©sbĂ© lesz „stĂlusrendĹ‘r”, Ă©s jobban a tartalmi kritĂ©riumokra áll rá.
És miért releváns az egészségügyben, ha ez az EdTech-sorozat része?
Válasz elsĹ‘kĂ©nt: mert az oktatási AI Ă©s az egĂ©szsĂ©gĂĽgyi AI ugyanarra a közös problĂ©mára fut rá: a minĹ‘sĂ©g Ă©s a sokfĂ©lesĂ©g egyszerre kell, kĂĽlönben a modell szĂ©pen teljesĂt átlagos esetekben, Ă©s gyengĂ©n a kritikus szĂ©leken.
Az egĂ©szsĂ©gĂĽgyben a nyelvi adatok (anamnĂ©zis, ambuláns lap, triázs megjegyzĂ©sek) rendkĂvĂĽl heterogĂ©nek. Ráadásul:
- intĂ©zmĂ©nyenkĂ©nt eltĂ©rĹ‘ a dokumentáciĂłs stĂlus
- orvosonkĂ©nt eltĂ©rĹ‘ a rövidĂtĂ©srendszer
- betegcsoportonkĂ©nt eltĂ©rĹ‘ a panaszleĂrás
Egy UDS-szerű szelekciĂł kĂ©tfĂ©lekĂ©pp segĂt:
- HatĂ©konyabb finomhangolás: kevesebb pĂ©ldábĂłl is lehet erĹ‘sebb modellt Ă©pĂteni, ami gyorsabb iteráciĂłkat ad (pilot → visszajelzĂ©s → Ăşj finomhangolás).
- Jobb robusztusság: a diverz minták miatt a modell kevésbé esik szét, amikor „furcsa” megfogalmazást vagy ritka klinikai kombinációt kap.
Ha neked EdTech termĂ©ked van, ez azĂ©rt fontos, mert a tanulĂłi szövegadatok hasonlĂłan „szabad formájĂşak”, mint a klinikai jegyzetek: tele vannak rövidĂtĂ©ssel, hibával, fĂ©lbehagyott mondattal. A robusztusság ott is versenyelĹ‘ny.
Gyakorlati ellenőrzőlista: hogyan gondolkodj utility + diverzitás alapon?
Válasz elsĹ‘kĂ©nt: a cĂ©l egy olyan trĂ©ningfolyamat, ahol minden batch „tanĂt” Ă©s közben nem ismĂ©tli tĂşl önmagát.
Ha nem is vezeted be az UDS-t egy az egyben, az alábbi lĂ©pĂ©sek nagyon gyorsan javĂtják a finomhangolási pipeline-t:
-
Döntsd el, mi a „hasznosság” jele a te feladatodban
- loss / perplexity alapú pontszám
- bizonytalanság (pl. margin)
- hibakategória-alapú súlyozás (EdTech-ben tipikus)
-
Vezess be diverzitás-féket
- embedding-távolság a batch-en belül
- klaszterekből mintavételezés (ne csak a legnagyobb klaszterből)
-
Tarts egy „memóriát” a közelmúlt batch-eiről
- 1–5 ezer minta is elég lehet sok esetben
- a cél: ne válaszd újra és újra ugyanazt a mintázatot
-
Mérj két KPI-t külön
- teljesĂtmĂ©ny (pl. feladatpontosság, rubrikás Ă©rtĂ©kelĂ©s egyezĂ©se)
- lefedettsĂ©g (ritka esetek teljesĂtmĂ©nye, csoportonkĂ©nti bontás)
-
Auditálhatóság: logold a szelekció okát
- „miért került be a batch-be?”
- egészségügyben és oktatásban is aranyat ér, amikor magyarázni kell egy döntést
JĂł szelekciĂł mellett a trĂ©ning nem csak gyorsabb lesz, hanem kiszámĂthatĂłbb is.
Mit kérdeznek ilyenkor a csapatok? (rövid Q&A)
„Nem lesz rosszabb a modell, ha kihagyok adatot?”
Nem, ha a kihagyás okos. A cél nem az, hogy kevesebb adat, hanem hogy kevesebb felesleges ismétlés kerüljön be.
„A diverzitás nem rontja a konvergenciát?”
Ha tĂşl agresszĂv, ronthat. A jĂł beállĂtásnál a diverzitás nem szĂ©tszĂłrja a tanulást, hanem megelĹ‘zi a tĂşlillesztĂ©st Ă©s a bias felerĹ‘södĂ©sĂ©t.
„Miért fontos, hogy ne kelljen külső validációs készlet?”
Sok Ă©les rendszerben nincs gyorsan karbantarthatĂł, reprezentatĂv validáciĂłs kĂ©szlet (kĂĽlönösen egĂ©szsĂ©gĂĽgyi Ă©s magyar nyelvű domain esetĂ©n). Egy önmagában működĹ‘ szelekciĂłs jel ezĂ©rt praktikus.
Hova illik ez a sorozatban?
A „MestersĂ©ges intelligencia az oktatásban Ă©s EdTech terĂĽleten” sorozatban sokat beszĂ©lĂĽnk szemĂ©lyre szabásrĂłl, tanulĂłi teljesĂtmĂ©ny elemzĂ©srĹ‘l Ă©s digitális platformokrĂłl. Az UDS ĂĽzenete ehhez passzol: a szemĂ©lyre szabás nem csak termĂ©kfunkciĂł, hanem adat- Ă©s trĂ©ningstratĂ©gia is. Ha ugyanazokat a mintákat trĂ©neljĂĽk Ăşjra Ă©s Ăşjra, a szemĂ©lyre szabás valĂłjában csak dĂsz.
Ha viszont a fine-tuning folyamat már a batch kiválasztás szintjén figyel a hasznosságra és a diverzitásra, akkor a modell nagyobb eséllyel fogja érteni a „szélső” tanulói helyzeteket is.
A kérdés, amit én 2026 elejére minden csapatnak feltennék: a tréninged tényleg a tanulóid/ felhasználóid sokféleségét tükrözi, vagy csak a leggyakoribb eseteket ismétli?