A hiányzĂł adatok alááshatják az AI‑magyarázatok megbĂzhatĂłságát. Mutatjuk, miĂ©rt szűkek a CI-k egyszeri imputáciĂłnál, Ă©s mit tegyĂ©l helyette.

HiányzĂł adatok: mennyire bĂzhatunk az AI‑magyarázatokban?
Egy banki kockázati modell vagy egy klinikai döntĂ©stámogatĂł rendszer gyakran nem ott hibázik, ahol a legtöbben keresik. Nem a neurális hálĂł „fekete doboza” az elsĹ‘ számĂş gond, hanem az, ami már a tanĂtás elĹ‘tt törtĂ©nik: a hiányzĂł adatok kezelĂ©se. A valĂłságban a hiányzĂł Ă©rtĂ©kek rutinok: elmaradt labor, nem kitöltött kĂ©rdĹ‘Ăv, elveszett tranzakciĂłs attribĂştum, eltĂ©rĹ‘ adatgyűjtĂ©si protokoll.
A gond ott kezdődik, hogy az „értelmezhető AI” (IML) eszköztárát — permutációs változófontosság, parciális függőségi görbék (PDP), SHAP/ Shapley‑értékek — sokan úgy használják, mintha a magyarázatok stabilak lennének. A 2025-ben bemutatott kutatás (Golchian–Wright, IJCAI 2025 XAI workshop) viszont egy kellemetlen, de nagyon hasznos dolgot tesz világossá: az egyszeri imputáció rendszeresen alábecsüli a bizonytalanságot, és emiatt a magyarázatokhoz számolt konfidencia‑intervallumok gyakran „túl magabiztosak”.
Ez a tĂ©ma a „MestersĂ©ges intelligencia a pĂ©nzĂĽgyi Ă©s banki szektorban” sorozatban is kulcs, mert ugyanaz a mechanizmus rontja a döntĂ©sek átláthatĂłságát a hitelkockázat-Ă©rtĂ©kelĂ©sben, a csalásfelderĂtĂ©sben Ă©s a szabályozĂłi riportálásban, mint ami az egĂ©szsĂ©gĂĽgyben a diagnosztikai AI-nál. Ha a magyarázat bizonytalan, akkor a döntĂ©s is az — csak Ă©pp nem látjuk.
Mit jelent az „imputációs bizonytalanság”, és miért baj, ha nem számolunk vele?
Válasz röviden: az imputációs bizonytalanság az a plusz szórás, ami abból jön, hogy a hiányzó értéket nem „tudjuk”, csak becsüljük — és több ésszerű becslés is létezhet.
A hiányzĂł adatot gyakran egyetlen lĂ©pĂ©sben „kitöltjĂĽk” (pl. mediánnal, regressziĂłs becslĂ©ssel, kNN-nel). Ez az egyszeri imputáciĂł kĂ©nyelmes, gyors, Ă©s a modell teljesĂtmĂ©nyĂ©t sokszor „elĂ©g jĂłnak” mutatja. Csakhogy a magyarázatok világa más: ott azt várjuk, hogy meg tudjuk mondani, melyik változĂł mennyit számĂt, Ă©s mennyire biztos ez az állĂtás.
Ha egyszer imputálunk, akkor úgy teszünk, mintha a kitöltött értékek „igaziak” lennének. A következmény:
- a magyarázatok becsült varianciája kisebb lesz a valósnál,
- a konfidencia-intervallumok túl szűkek,
- és a szervezet hamis biztonságérzetet kap („biztosan ez a top 3 driver”).
A kutatás pont erre fókuszál: nemcsak arra, hogy különböző imputációs módszerek eltérő magyarázatot adhatnak (ezt már korábban is vizsgálták), hanem arra, hogy a bizonytalanság becslése is elcsúszik, ha nem többes imputációt használunk.
Mi az a többes imputáció (multiple imputation) a gyakorlatban?
Válasz röviden: több, egymástĂłl kicsit eltĂ©rĹ‘ „teljes” adatbázist kĂ©szĂtĂĽnk, mindegyiket elemezzĂĽk, majd az eredmĂ©nyeket összevonjuk.
A többes imputáció lényege, hogy nem egyetlen kitöltött értékkel dolgozunk, hanem például m=5–20 különböző imputált verzióval. Mindegyik verzióban fut a modell és az IML eljárás, a végén pedig a bizonytalanságot az imputációk közötti szórás is növeli — vagyis közelebb kerülünk a valós varianciához.
Mit vizsgált a tanulmány az IML módszerekben?
Válasz röviden: azt, hogy az imputáciĂł hogyan torzĂtja a magyarázatok konfidencia-intervallumainak lefedettsĂ©gĂ©t.
A szerzők három, a gyakorlatban nagyon gyakori magyarázót vettek elő:
- Permutációs változófontosság (Permutation Feature Importance) – mennyit romlik a modell, ha „összekeverjük” egy változó értékeit.
- Parciális függőségi ábrák (PDP) – hogyan változik a becsült kimenet, ha egy változót végigléptetünk.
- Shapley/SHAP jellegű értékek – az egyedi predikciók hozzájárulás-bontása.
A fő mérőszám a konfidencia-intervallumok lefedettsége (coverage): ha 95%-os intervallumot mondunk, akkor hosszú távon kb. 95%-ban kellene tartalmaznia a „valódi” értéket. A tanulmány üzenete egyértelmű:
Az egyszeri imputáció tipikusan alábecsüli a varianciát, a többes imputáció pedig a legtöbb esetben közelebb visz a névleges lefedettséghez.
Ez nem akadémiai finomkodás. Ha egy banki modellnél egy SHAP‑alapú magyarázat „túl magabiztos”, akkor a modellkockázati jelentés vagy az ügyfélnek adott indoklás félrecsúszhat. Egészségügyben pedig ugyanez a logika a klinikai bizalomra csapódik rá.
Egészségügyi párhuzam: diagnosztika, triázs, képi AI
Válasz röviden: az imputációs bizonytalanság a klinikai magyarázatoknál közvetlenül a betegbiztonságot érinti.
VegyĂĽnk egy tipikus helyzetet: sĂĽrgĹ‘ssĂ©gi triázs modell, ami laborok Ă©s vitális paramĂ©terek alapján becsli a kockázatot. A hiányzĂł adat itt nem kivĂ©tel, hanem szabály (pl. a D-dimer nincs kĂ©sz, a testsĂşly nincs rögzĂtve). Ha a modell magyarázata szerint „a CRP a fĹ‘ driver”, de a CRP Ă©rtĂ©kĂ©t sok betegnĂ©l imputáltuk, akkor kĂ©t kĂ©rdĂ©s számĂt:
- Mennyire stabil ez a magyarázat?
- Mekkora a bizonytalanság a magyarázat körül?
Ugyanez igaz orvosi képalkotásnál is, csak ott a hiány nem mindig „NaN”: lehet eltérő protokoll, hiányzó szekvencia (MR), vagy olyan klinikai metaadat, ami nincs összekötve a PACS-ból. A magyarázhatóság (pl. feature importance klinikai változóknál) és a bizonytalanság együtt adja a bizalmat.
Banki AI: miért különösen veszélyes a „túl szűk” magyarázati intervallum?
Válasz röviden: mert a pénzügyi döntések auditálhatósága és jogi védhetősége a bizonytalanság korrekt kezelésén áll vagy bukik.
A banki környezetben a magyarázatok nem csak „érdekesek”. Gyakran kötelezőek:
- HitelbĂrálat: ĂĽgyfĂ©lnek kommunikált indokok Ă©s belsĹ‘ döntĂ©si log.
- CsalásfelderĂtĂ©s: riasztások priorizálása, operátori bizalom.
- Modellkockázat-kezelés: validáció, monitoring, drift elemzés.
Ha a hiányzó jövedelemkomponenseket egyszer imputáljuk, majd SHAP‑pal rangsoroljuk a változókat, könnyen előállhat, hogy egy változó „top driverként” jelenik meg, miközben a valós bizonytalanság mellett már nem lenne ennyire domináns.
Egy praktikus, pénzügyi példával:
- A modell szerint a „múltbeli késedelem napjai” a legfontosabb változó.
- De az ügyfelek 18%-ánál ez a mező hiányzik (adatátvételi hiba, összeolvasztási gond), és egyszer imputáltuk.
- A permutációs fontosság 95%-os intervalluma túl szűk lesz.
- A validátor csapat azt hiszi, hogy a változĂł stabilan domináns, Ă©s erre Ă©pĂt monitoringot.
Majd amikor változik az adatforrás, hirtelen „elromlik” a magyarázat, és senki nem érti miért. Pedig ott volt a válasz: nem kezeltük az imputációs bizonytalanságot.
Hogyan Ă©pĂtsd be a többes imputáciĂłt az Ă©rtelmezhetĹ‘ AI workflow-ba?
Válasz röviden: az IML-t ugyanúgy kell „MI‑kompatibilissé” tenni, mint a modellt: pipeline, ismétlés, összevonás.
A legtöbb csapat ott csúszik el, hogy a magyarázatot a végén, egyszer futtatja le. Én azt láttam működni, ha a magyarázhatóságot a modellkockázati pipeline részének tekintjük.
Ajánlott, egyszerű implementációs minta
-
Hiánymechanizmus feltérképezése
- MCAR/MAR/MNAR gyanú (üzletileg: miért hiányzik?)
- hiányarány változónként és szegmensenként (pl. csatorna, régió, intézmény)
-
Többes imputáciĂł beállĂtása (m=10 jĂł kiindulás)
- ugyanolyan adattisztĂtási szabályok mindegyik imputáciĂłn
- random seed kezelés, reproducibilitás
-
Modellezés és magyarázat imputációnként
- modellparaméterek azonosak
- permutációs fontosság/PDP/SHAP minden imputált adaton
-
Eredmények összevonása
- átlagolt magyarázat + imputációk közötti szórás
- konfidencia‑intervallumok riportálása
-
Döntési szabály: mikor „stabil” egy magyarázat?
- például: a top 5 változó 10 imputációból legalább 8-ban top 5
- PDP görbék alakja klaszterezhető-e imputációnként?
Mit kommunikálj a döntéshozóknak?
Ha üzleti/klinikai oldalnak magyarázol, ezt a mondatot érdemes megjegyezni:
„A modell nemcsak bizonytalan lehet, hanem a magyarázata is — Ă©s a hiányzĂł adatok ezt felnagyĂtják.”
A magyarázat mellé érdemes mindig odatenni:
- hiányarány a kulcsváltozókra,
- a magyarázat konfidencia-intervallumát,
- és egy rövid megjegyzést: egyszeri vagy többes imputáció történt.
Gyakori kérdések, amik előbb-utóbb feljönnek
„Nem túl drága többes imputációt futtatni?”
Válasz: banki és egészségügyi környezetben általában olcsóbb, mint egy félreértett modell miatti incidens. Kezdd kicsiben: m=5, csak a magyarázatokhoz, és mérd a különbséget.
„Elég, ha robusztus modellt használok (pl. fák)?”
Válasz: nem. A modell lehet robusztus, de az IML konfidencia-intervallum ugyanúgy alábecsülhető egyszeri imputációval.
„Melyik IML módszer a legérzékenyebb?”
Válasz: a tanulmány három módszeren vizsgálja, és a közös tanulság az, hogy az intervallum-lefedettség romlik egyszeri imputáció mellett. Gyakorlatban azt javaslom: amelyik magyarázatot döntésre használod, annál kötelező a bizonytalanság kezelése.
Mit érdemes hazavinni ebből a kutatásból?
Az „értelmezhetĹ‘ AI” nem attĂłl lesz megbĂzhatĂł, hogy szĂ©p SHAP‑diagramot teszĂĽnk a riportba. AttĂłl lesz megbĂzhatĂł, hogy a bizonytalanságot is komolyan vesszĂĽk, már az adatelĹ‘kĂ©szĂtĂ©snĂ©l. A Golchian–Wright-fĂ©le eredmĂ©ny nekem azĂ©rt tetszik, mert nagyon gyakorlatias: rávilágĂt, hogy a hiányzĂł Ă©rtĂ©kek egyszeri kitöltĂ©se hamis pontosságot ad a magyarázatainknak.
A pénzügyi és banki szektorban ez auditálhatóság és jogi védhetőség kérdése. Az egészségügyben pedig betegbiztonság. A kettő meglepően hasonló: mindkettőnél a döntés mögötti indoklásnak nemcsak érthetőnek, hanem statisztikailag őszintének is kell lennie.
Ha most fut egy modelled, amit magyarázol is, egyetlen kérdést tennék fel a csapatnak: a magyarázatok konfidencia‑intervallumai tartalmazzák az imputációs bizonytalanságot, vagy csak úgy teszünk, mintha nem létezne?