AI-modellméret folyamatos tanulásnál: mennyi elég?

Mesterséges intelligencia a kiskereskedelemben és e-kereskedelemben••By 3L3C

AI modellméret folyamatos tanulásnál: mikor elég? Gyakorlati keret e-kereskedelmi és egészségügyi példákkal, költség–teljesítmény fókuszban.

folyamatos tanulásGaussian processmodellhatékonyságe-kereskedelemajánlórendszerkereslet-előrejelzésAI az egészségügyben
Share:

Featured image for AI-modellméret folyamatos tanulásnál: mennyi elég?

AI-modellméret folyamatos tanulásnál: mennyi elég?

Egy AI-projektet nem az szokott megakasztani, hogy „nem elég okos” a modell, hanem az, hogy túl drága fenntartani. A karácsonyi szezon utáni készletkisöprésnél például naponta változik a kereslet, az árérzékenység, a visszaküldési arány – a modellnek pedig lépést kell tartania. Csakhogy ha a modellt túl nagyra építed, a felhőköltség és a válaszidő elszáll. Ha túl kicsire, romlik az ajánlórendszer, nő a készlethiány, csökken a kosárérték.

Pont erről szól egy friss, 2025 végén véglegesített kutatás: folyamatos (continual) tanulásban hogyan állítsuk be a Gaussian process (GP) modell „méretét” úgy, hogy ne pazaroljunk erőforrást, de a teljesítmény közel optimális maradjon. A tanulság nem csak statisztika-rajongóknak érdekes. A kereskedelemben és az egészségügyben ugyanaz a probléma: az adatok folyamatosan érkeznek, a végső adatmennyiséget előre nem tudod, mégis stabil, gyors és megbízható rendszert kell üzemeltetni.

A posztban megmutatom, mit érdemes ebből a gondolatból átvenni a kiskereskedelmi és e-kereskedelmi AI (személyre szabott ajánlások, kereslet-előrejelzés, készletkezelés) világába, és miért fontos ugyanez a szemlélet az egészségügyi AI-ban (diagnosztika, telemedicina, kockázatbecslés) is.

A válasz röviden: nem fix modellméret kell, hanem „növekvő”

A kulcsgondolat egyszerű: a modellméretet nem érdemes előre fixálni, mert folyamatos tanulásnál nem tudod, mekkora lesz a végső adathalmaz. Ehelyett olyan megközelítés kell, ami automatikusan igazítja a kapacitást az új adatokhoz, és csak addig nő, amíg az tényleg hoz mérhető teljesítménynyereséget.

A hivatkozott kutatás ezt a problémát Gaussian process modellekben vizsgálja. A GP-ket lehet úgy tekinteni, mint olyan valószínűségi modelleket, amelyek nem csak jósolnak, hanem bizonytalanságot is adnak. Ez a bizonytalanság a gyakorlatban aranyat ér:

  • e-kereskedelemben: mikor merj agresszĂ­van árazni, Ă©s mikor „tĂşl kockázatos” az elĹ‘rejelzĂ©s?
  • egĂ©szsĂ©gĂĽgyben: mikor bĂ­zhatĂł egy triázs- vagy diagnosztikai javaslat, Ă©s mikor kell emberi felĂĽlvizsgálat?

A GP-k tipikus „méretparamétere” a ritkított (sparse) változatoknál az indukciós pontok száma. Minél több van belőlük, annál nagyobb a kapacitás és a számítási költség is. A kérdés: mikor elég?

Miért fáj a modellméret kérdése a kereskedelemben (és miért ugyanaz az egészségügyben)?

A válasz: mert a kereskedelemben a „túl nagy” modell nem csak drága, hanem üzletileg veszélyes.

E-kereskedelmi példa: ajánlórendszer csúcsforgalomban

Decemberben egy ajánlórendszer tipikusan több csatornán fut: web, app, e-mail, push. Ha a modell:

  • tĂşl nagy: nĹ‘ a kĂ©sleltetĂ©s (latency), romlik a felhasználĂłi Ă©lmĂ©ny, drágul az infrastruktĂşra.
  • tĂşl kicsi: csökken a relevancia, romlik a CTR, nĹ‘ az irreleváns ajánlások miatti lemorzsolĂłdás.

Ráadásul a folyamatos tanulás itt nem extra, hanem alap: új termékek jönnek, trendek mennek, visszaküldések mintázata változik, készlet fogy.

Egészségügyi párhuzam: telemedicina és folyamatosan változó populáció

Ugyanez a helyzet a telemedicinában vagy a kórházi döntéstámogatásban:

  • Ăşj protokollok,
  • szezonális betegsĂ©ghullámok (influenza, RSV),
  • intĂ©zmĂ©nyenkĂ©nt eltĂ©rĹ‘ betegpopuláciĂł,
  • folyamatos adatbeáramlás.

Itt a „túl nagy modell” nem csak költség, hanem üzemeltetési kockázat (lassú válasz, nehéz validálás), a „túl kicsi” pedig szakmai kockázat (gyengébb predikció, rosszabb kalibráció).

Snippet-mondat: A jó modellméret nem „minél nagyobb”, hanem „pont akkora, amennyi az adatok információtartalmának kinyeréséhez kell”.

Mit ad a Gaussian process szemlélet a folyamatos tanuláshoz?

A fő előny: a GP-k természetüknél fogva bizonytalanság-tudatos modellek. A bizonytalanság nem dísznek van, hanem döntéshez.

1) Bizonytalanság = üzleti kontroll

E-kereskedelmi példák:

  • KĂ©szletgazdálkodás: ha az elĹ‘rejelzĂ©s bizonytalan, Ă©rdemes biztonsági kĂ©szletet növelni bizonyos SKU-knál.
  • Dinamikus árazás: magas bizonytalanságnál korlátozod az árváltoztatás lĂ©pĂ©sközĂ©t.
  • Marketing költĂ©s: bizonytalan szegmenseknĂ©l kisebb licit/CPA plafont használsz.

Egészségügy:

  • a bizonytalan esetek automatikusan „emberhez kerĂĽlnek”,
  • csökken a tĂ©vesen magabiztos automatizmusok aránya,
  • jobban kommunikálhatĂł a modell kockázata.

2) Folyamatos tanulásnál a „végső adatmennyiség” ismeretlen

A kutatás egyik fontos gyakorlati feltétele: a hiperparamétereket úgy kell megadni, hogy közben nem „leshetsz bele” az adathalmaz tulajdonságaiba (például végső méret, zajszint, variancia). Ez kifejezetten életszagú: éles rendszernél nem akarsz minden új adatfázisnál kézzel újrahangolni.

A tanulság kereskedelemben: ha olyan módszert választasz, ami csak akkor működik, ha előre tudod a forgalom volumenét vagy a szezonális kilengések mértékét, akkor a rendszered a legrosszabb pillanatban fog szétesni (például akciók, ünnepek, kampánycsúcsok).

Gyakorlati keretrendszer: mikor érdemes növelni a modellméretet?

A legjobb működő kompromisszum az, ha a modellméret növelése szabályhoz kötött, és az a szabály egyértelműen mér egy „nyereség vs. költség” arányt.

A döntési logika (üzletileg értelmezhető)

Nekem az vált be, hogy a bővítésről nem absztrakt metrikák alapján döntünk, hanem ilyen kérdésekre válaszolunk:

  1. Csökkent-e mérhetően a hiba? (pl. MAPE kereslet-előrejelzésnél, logloss ajánlásnál)
  2. Javult-e a kalibráció? (a bizonytalanság tényleg együtt mozog-e a tévedésekkel)
  3. Megéri-e a késleltetés / költség növekedése? (ms, CPU/GPU, memória)

Ha ezek közül kettő nem javul, a modell bővítése általában pazarlás.

Mit jelent ez GP-k nyelvén?

A ritkított GP-kben a kapacitás gyakran az indukciós pontok számával nő. A kutatás lényege, hogy ezt a kapacitást folyamatos tanulás közben lehet úgy bővíteni, hogy:

  • a teljesĂ­tmĂ©ny közel optimális marad,
  • közben nem kell minden datasethez kĂĽlön hangolni,
  • Ă©s a mĂłdszer többfĂ©le adaton stabilan működik.

A kereskedelmi analógia: ne fixen döntsd el, hogy „legyen 200 rejtett egység” vagy „legyen 10 millió paraméter”, hanem legyen egy folyamat, ami akkor növel, ha az tényleg hoz extra értéket.

Konkrét felhasználások a kiskereskedelemben és e-kereskedelemben

1) Kereslet-előrejelzés több idősíkon

A GP-k erősek idősoros problémákban, főleg ha:

  • több szezonalitás van (heti, havi, ĂĽnnepi),
  • sok a hiányzĂł adat,
  • Ă©s kell a bizonytalanság.

Folyamatos tanulásnál a modellméret-igazítás azért kritikus, mert a termékportfólió sem fix: új SKU-k indulnak, régiek kifutnak.

Akciótipp: vezess be olyan riasztást, ami akkor indít modellbővítési kísérletet, ha a top SKU-k 20%-ánál a hibametrika 2 egymást követő héten romlik, miközben a bemeneti adatok minősége nem romlott (pl. nincs tracking kiesés).

2) Személyre szabott ajánlások (online frissítéssel)

Az ajánlórendszerek egyik nagy baja a „hideg start” és a gyors trendváltás. GP-alapú vagy GP-szerű (bizonytalanságot modellező) megoldásoknál a modellméret dinamikus növelése segít, hogy:

  • Ăşj felhasználĂłi minták beĂ©pĂĽljenek,
  • de ne nĹ‘jön kontroll nĂ©lkĂĽl a futási költsĂ©g.

Praktikus szabály: ha a modell bizonytalansága tartósan magas bizonyos kategóriákban (pl. új márkák), akkor érdemes célzottan ott növelni a kapacitást, nem globálisan.

3) Készletkezelés és visszaküldés-előrejelzés

A visszaküldések karácsony után külön „sportág”. Ha a modell folyamatosan tanul, a januári mintákból gyorsan profitálhatsz – de csak akkor, ha nem kötötted magad egy rosszul belőtt modellmérethez.

Itt a bizonytalanság is döntési tényező:

  • magas bizonytalanság + magas várhatĂł visszakĂĽldĂ©s → Ăłvatosabb beszerzĂ©s
  • alacsony bizonytalanság + stabil kereslet → agresszĂ­vebb kĂ©szletszint

„People also ask” – gyors válaszok a tipikus kérdésekre

GP-t vagy neurális hálót érdemes választani e-kereskedelemben?

Ha a cél bizonytalanság-alapú döntés és a stabil online frissítés, a GP-szemlélet sokat ad. Ha óriási skálán, nagyon heterogén jelekkel dolgozol (kép, szöveg, viselkedés), a DNN erősebb lehet. A gyakorlatban a hibrid megoldás a nyerő: DNN a reprezentációra, GP-szerű fej a bizonytalanságra.

Miért ne állítsuk fixre a modellméretet?

Mert folyamatos tanulásnál a végső adatmennyiség és az információtartalom nem ismert előre. Fix modellméret mellett vagy pazarlásba futsz (túl nagy), vagy teljesítményromlásba (túl kicsi).

Mitől lesz „near-optimal” a teljesítmény?

Attól, hogy a rendszer a kapacitást csak akkor növeli, amikor az új adatokból még tényleg kinyerhető extra jel, és nem csak a számítási költséget növeli.

Mit érdemes holnap bevezetni a saját AI-rendszeredben?

Három, gyorsan megvalósítható lépés:

  1. Tedd mérhetővé a „méret-költség” görbét: logold a modellváltozatok latency-jét, költségét és minőségét ugyanazon forgalmi szeleteken.
  2. Vezess be bővítési küszöböt: ne „érzésre” növelj, hanem előre definiált romlási feltételekre (hiba + kalibráció + üzleti KPI).
  3. Kezeld a bizonytalanságot első osztályú jelként: ha a modell nem tudja, az is információ. Építs rá fallbacket (szabályalapú ajánlás, óvatos árazás, emberi review).

Amiért ezt szeretem: nem csak technikai, hanem üzemeltetési fegyelem. A modellméret-automatikázás valójában arról szól, hogy ne a legdrágább megoldást használd, hanem a leginkább indokoltat.

A sorozatunkban ("Mesterséges intelligencia a kiskereskedelemben és e-kereskedelemben") gyakran beszélünk ajánlásról, kereslet-előrejelzésről és készletkezelésről. Ez a téma mindegyikhez hozzátesz egy fontos szűrőt: a skálázás nem paraméterszám-verseny, hanem kontrollált kapacitásmenedzsment.

Ha most indítanál vagy újraépítenél egy AI-rendszert, te hol félsz jobban: a „túl nagy és drága” modelltől, vagy a „túl kicsi és pontatlan” modelltől?