Hatékony AI modellek: „négyzetelés” extra költség nélkül

Mesterséges intelligencia a kiskereskedelemben és e-kereskedelemben••By 3L3C

Gyorsabb marginalizáció, erős eloszlásmodellek: mit ad a „négyzetelés négyzetelés nélkül” a retail AI-nak és az egészségügynek?

valószínűségi modellektensor networkcircuit modellekAI optimalizálásajánlórendszerekkereslet-előrejelzés
Share:

Featured image for Hatékony AI modellek: „négyzetelés” extra költség nélkül

Hatékony AI modellek: „négyzetelés” extra költség nélkül

A legtöbb AI-projekt ott csúszik el, ahol a számítási költségek „láthatatlanul” elszállnak. Nem a modell tréningjének első napján, hanem később: amikor valós időben kell döntéseket hozni, amikor több üzleti egység ugyanarra a szolgáltatásra csatlakozik, vagy amikor hirtelen tízszeres forgalom érkezik egy kampány alatt. 2025 végén ez különösen aktuális a kiskereskedelemben és e-kereskedelemben: karácsonyi szezon, év végi készletkisöprés, dinamikus árazás, és az a kellemetlen tény, hogy a vásárlói elvárás a „most azonnal” szintjére nőtt.

Ebben a környezetben jönnek képbe azok a kutatási eredmények, amelyek első ránézésre túl elméletinek tűnnek – például egy friss munka a négyzetelt tenzorhálókról és négyzetelt áramkörökről (squared tensor networks / squared circuits). A papír címe már önmagában egy üzenet: „hogyan négyzeteljünk anélkül, hogy ténylegesen négyzetelnénk”. Magyarul: hogyan kapjunk meg egy kifejező, erős valószínűségi modellt úgy, hogy közben ne fizessük ki a brutális számítási felárát.

A sorozatunk („Mesterséges intelligencia a kiskereskedelemben és e-kereskedelemben”) szempontjából ez azért fontos, mert a személyre szabott ajánlások, a kereslet-előrejelzés és a csalásdetektálás mind ugyanabba a falba ütköznek: jó modell kell, de gyorsan és olcsón kell futnia.

Mit jelent a „négyzetelt” modell, és miért drága?

A lényeg: a négyzetelt (squared) konstrukciók olyan trükköt használnak, amivel nagyon rugalmas eloszlásbecslő modelleket kaphatunk, miközben bizonyos lekérdezések (például margózás) elvileg zárt alakban is kezelhetők.

A gyakorlati probléma: a margózás és a partíciófüggvény ára

Sok üzleti AI-feladat valójában valószínűségi kérdés:

  • Mekkora a valĂłszĂ­nűsĂ©ge, hogy egy kosárba bekerĂĽl mĂ©g egy termĂ©k, ha már kettĹ‘ benne van?
  • Mi a valĂłszĂ­nűsĂ©gi eloszlás a következĹ‘ heti keresletre, ha bizonyos tĂ©nyezĹ‘ket „kikapcsolunk” (pl. nem fut a kampány)?
  • Mekkora a kockázata egy tranzakciĂłnak, ha nĂ©hány attribĂştum hiányzik?

Ezek mind a marginalizálás környékén játszanak (változók „összegezgetése”, bizonytalanság kezelése). A gond az, hogy a négyzetelés (azaz amikor egy hálót vagy gráfot „önmagával szorzunk”) megnöveli a számítási bonyolultságot: több csomópont, több kapcsolat, több összevonás. A kutatás pontosan erre mutat rá: hiába jók ezek a modellek elméletben, a gyakorlatban a partíciófüggvény-számítás és a margózás overheadje visszafogja a használhatóságot.

Mi a különbség tenzorháló és áramkör között?

  • A tenzorhálĂł (tensor network, TN) sokszor jĂłl strukturált, „fizikás” ihletĂ©sű reprezentáciĂł, ahol vannak bevált kanonikus formák.
  • A valĂłszĂ­nűsĂ©gi áramkör (circuit) inkább általános számĂ­tási gráf, amely olyan faktorozásokat is kifejez, amelyek nem esnek rá szĂ©pen egy ismert TN-sablonra.

A kiskereskedelmi modellekben gyakori, hogy a struktúra üzleti logikából jön (pl. kategória–brand–ár–akció–csatorna), és nem „TN-kompatibilis”. Emiatt a TN-ekhez ismert egyszerűsítések nem mindig ülnek rá a circuit-okra.

A kutatás üzenete: „négyzeteld úgy, hogy ne fájjon”

A paper fő állítása számomra így fordítható le üzleti nyelvre:

Meg lehet tartani a négyzetelt modellek kifejezőerejét, miközben a margózást lényegesen olcsóbbá tesszük – ha okosan paraméterezzük a gráfot.

Mi a trükk? Ortogonalitás + determinisztikusság szemlélet

A tenzorhálóknál az egyik klasszikus megoldás a kanonikus formák használata, ahol a paraméterezés unitér mátrixokra épül. Ez az ortogonalitás-szerű szerkezet sok összevonást könnyít.

A szerzők azt mondják: circuit-oknál ez nem elég, mert a circuit olyan faktorozásokat is tud, amik „nem TN-ek”. Ezért inspirációt vesznek:

  • a TN-ek ortogonalitási ötleteibĹ‘l, Ă©s
  • a circuit-ök világábĂłl ismert determinisztikusságbĂłl, ami azĂ©rt jĂł, mert bizonyos lekĂ©rdezĂ©sek (pl. maximum keresĂ©s) tractable-ek lesznek.

Ezt a két gondolatot összeházasítva adnak egy olyan paraméterezési feltételrendszert négyzetelt circuit-okra, amivel a margózás overheadje lecsökken.

A legfontosabb gyakorlati állítás: nincs kifejezőerő-vesztés

A paper kísérletei szerint az új feltételek:

  • gyorsĂ­tják a margĂłzást/kiĂ©rtĂ©kelĂ©st Ă©s a tanulást,
  • nem csökkentik az expresszivitást (nem „butĂ­tják le” a modellt).

Ez azért kritikus, mert a legtöbb ipari „gyorsítás” valójában kompromisszum: egyszerűbb modell, kisebb pontosság, kevesebb feature. Itt a vállalás az, hogy a szerkezet úgy lesz „számolhatóbb”, hogy közben a modell ereje marad.

Mi köze ennek a kiskereskedelemhez és e-kereskedelemhez?

Közvetlenül nem fogsz holnap reggel „négyzetelt circuit-ot” bekapcsolni a webshopod adminjában. A hatás inkább alapozó jellegű: hatékonyabb valószínűségi modellezés olyan helyeken, ahol most túl drága lenne.

1) Ajánlórendszer: gyorsabb valószínűségi rangsorolás

A modern ajánlórendszerekben egyre gyakoribb, hogy nem csak pontbecslést adunk („ez tetszeni fog”), hanem bizonytalanságot is.

  • Ăšj felhasználĂł (cold start)
  • Ritka termĂ©kek (long tail)
  • Többcsatornás viselkedĂ©s (app + web + bolt)

Itt a margózás gyorsasága aranyat ér: ha sok hiányzó adat van, a modellnek hatékonyan kell „összegeznie” a lehetséges világokat. A négyzetelt circuit-ok tractable marginalizációja pont ezt támogatja.

2) Kereslet-előrejelzés: eloszlás, nem csak egy szám

A készletkezelésben az a baj a pontbecsléssel, hogy a valóság nem pont. Ha 120 darabot rendelsz, és 80 fogy, az pénz a polcon. Ha 160 fogy, az pénz a földön.

Egy eloszlásalapú modell (pl. „a jövő heti kereslet 70%-ban 90–140 között”) jobb döntéseket ad:

  • biztonsági kĂ©szlet,
  • promĂłciĂł ĂĽtemezĂ©s,
  • beszállĂ­tĂłi lead time kockázat.

Ehhez olyan modellek kellenek, amelyek margózást és normalizálást (partíciófüggvényt) is életszerű költséggel tudnak.

3) Csalásdetektálás és kockázat: hiányos attribútumok kezelése

A csalásdetektálás tipikusan hiányos adatokkal dolgozik (proxyk, elrejtett jelek, eltérő eszközök). A „minden változó megvan” feltételezés itt naiv.

Egy tractable valószínűségi circuit:

  • könnyebben ad calibrált kockázati valĂłszĂ­nűsĂ©get,
  • jobban kezeli a hiányzĂł feature-öket,
  • Ă©s ha gyors, akkor valĂłs idejű döntĂ©st is támogat.

És az egészségügy? Miért számít ez a kampányban?

A kampányunk fókusza „Mesterséges intelligencia az egészségügyben”, és szerintem pont itt van a lényegi átkötés: az egészségügyben a hatékonyság nem kényelmi kérdés, hanem hozzáférés.

Diagnosztikai AI: gyorsabb bizonytalanság-kezelés

Képalkotásnál (CT, MR) vagy triázsnál a modellnek nem csak „jó” választ kell adnia, hanem azt is, mennyire biztos benne. A bizonytalanság kezelése sokszor margózás és eloszlásbecslés kérdése.

Ha egy modell:

  • gyorsabban marginalizál,
  • stabilabban normalizálhatĂł,

akkor könnyebb belőle valós idejű, megbízható klinikai döntéstámogatást építeni.

Prediktív analitika kórházakban: költség és skálázás

A kórházi rendszerek gyakran korlátozott infrastruktúrán futnak, és a compliance miatt nem mindig opció mindent felhőbe tolni. A „számolható” modellek ezért stratégiai előnyt adnak.

A paper üzenete itt: nem muszáj a kifejezőerőért cserébe irreális számítási költséget vállalni.

Gyakorlati döntési lista: mikor érdemes ilyen irányba menni?

Ha AI-vezetőként vagy termékesként gondolkodsz, szerintem akkor érdemes a „tractable” (hatékonyan kiértékelhető) valószínűségi modellek felé fordulni, ha legalább 2 igaz rád:

  1. Hiányos, zajos adatokból kell megbízható döntést hozni (retail: multi-touch; health: hiányos anamnézis).
  2. A modell kimenete nem csak rangsor, hanem valószínűség/eloszlás (kockázat, kereslet, diagnosztikai bizonytalanság).
  3. Valós idejű kiszolgálás kell (≤ 100 ms) vagy sok párhuzamos kérés.
  4. A skálázás költsége már most fáj (GPU/CPU költség, latency büntetés, SLA).

Ha ez megvan, akkor a mostani arXiv-irány egyértelmű jel: a következő 12–24 hónapban egyre több „kompakt, mégis erős” valószínűségi architektúra fog megjelenni ipari implementációval.

Mit vigyél magaddal ebből a paperből, ha nem kutató vagy?

A legjobb rész az, hogy nem kell tenzorháló-szakértőnek lenned.

  • A modellstruktĂşra számĂ­t. Nem csak az adat Ă©s nem csak a paramĂ©terszám. A kiĂ©rtĂ©kelhetĹ‘sĂ©g dönt ĂĽzleti környezetben.
  • A „nĂ©gyzetelĂ©s” egy kifejezĹ‘erĹ‘-trĂĽkk, de eddig drága volt. Most jönnek az olyan paramĂ©terezĂ©sek, amelyek ezt a költsĂ©get lefaragják.
  • A tractable margĂłzás nem akadĂ©miai luxus. Ajánlás, kereslet, kockázat, diagnosztika: mind ezt kĂ©ri.

Ha a csapatod 2026-ra újra tervezi az ajánlórendszer vagy a prediktív analitika stackjét, én biztosan ránéznék azokra a modellekre, amelyek eloszlásokat tudnak és gyorsan marginalizálnak. Nem azért, mert divat, hanem mert a költség/haszon görbét végre kedvezőbb irányba tolják.

Záró gondolat: ha a modelled csak laborban fut jól, az nem AI-stratégia, hanem demo. A „számolható” valószínűségi architektúrák pont ezen változtatnak.