Hiányzó adatok: mennyire bízhatunk az AI‑magyarázatokban?

Mesterséges intelligencia a pénzügyi és banki szektorban••By 3L3C

A hiányzó adatok alááshatják az AI‑magyarázatok megbízhatóságát. Mutatjuk, miért szűkek a CI-k egyszeri imputációnál, és mit tegyél helyette.

imputációmagyarázható AISHAPmodellkockázategészségügyi AIbanki analitika
Share:

Featured image for Hiányzó adatok: mennyire bízhatunk az AI‑magyarázatokban?

Hiányzó adatok: mennyire bízhatunk az AI‑magyarázatokban?

Egy banki kockázati modell vagy egy klinikai döntéstámogató rendszer gyakran nem ott hibázik, ahol a legtöbben keresik. Nem a neurális háló „fekete doboza” az első számú gond, hanem az, ami már a tanítás előtt történik: a hiányzó adatok kezelése. A valóságban a hiányzó értékek rutinok: elmaradt labor, nem kitöltött kérdőív, elveszett tranzakciós attribútum, eltérő adatgyűjtési protokoll.

A gond ott kezdődik, hogy az „értelmezhető AI” (IML) eszköztárát — permutációs változófontosság, parciális függőségi görbék (PDP), SHAP/ Shapley‑értékek — sokan úgy használják, mintha a magyarázatok stabilak lennének. A 2025-ben bemutatott kutatás (Golchian–Wright, IJCAI 2025 XAI workshop) viszont egy kellemetlen, de nagyon hasznos dolgot tesz világossá: az egyszeri imputáció rendszeresen alábecsüli a bizonytalanságot, és emiatt a magyarázatokhoz számolt konfidencia‑intervallumok gyakran „túl magabiztosak”.

Ez a téma a „Mesterséges intelligencia a pénzügyi és banki szektorban” sorozatban is kulcs, mert ugyanaz a mechanizmus rontja a döntések átláthatóságát a hitelkockázat-értékelésben, a csalásfelderítésben és a szabályozói riportálásban, mint ami az egészségügyben a diagnosztikai AI-nál. Ha a magyarázat bizonytalan, akkor a döntés is az — csak épp nem látjuk.

Mit jelent az „imputációs bizonytalanság”, és miért baj, ha nem számolunk vele?

Válasz röviden: az imputációs bizonytalanság az a plusz szórás, ami abból jön, hogy a hiányzó értéket nem „tudjuk”, csak becsüljük — és több ésszerű becslés is létezhet.

A hiányzó adatot gyakran egyetlen lépésben „kitöltjük” (pl. mediánnal, regressziós becsléssel, kNN-nel). Ez az egyszeri imputáció kényelmes, gyors, és a modell teljesítményét sokszor „elég jónak” mutatja. Csakhogy a magyarázatok világa más: ott azt várjuk, hogy meg tudjuk mondani, melyik változó mennyit számít, és mennyire biztos ez az állítás.

Ha egyszer imputálunk, akkor úgy teszünk, mintha a kitöltött értékek „igaziak” lennének. A következmény:

  • a magyarázatok becsĂĽlt varianciája kisebb lesz a valĂłsnál,
  • a konfidencia-intervallumok tĂşl szűkek,
  • Ă©s a szervezet hamis biztonságĂ©rzetet kap („biztosan ez a top 3 driver”).

A kutatás pont erre fókuszál: nemcsak arra, hogy különböző imputációs módszerek eltérő magyarázatot adhatnak (ezt már korábban is vizsgálták), hanem arra, hogy a bizonytalanság becslése is elcsúszik, ha nem többes imputációt használunk.

Mi az a többes imputáció (multiple imputation) a gyakorlatban?

Válasz röviden: több, egymástól kicsit eltérő „teljes” adatbázist készítünk, mindegyiket elemezzük, majd az eredményeket összevonjuk.

A többes imputáció lényege, hogy nem egyetlen kitöltött értékkel dolgozunk, hanem például m=5–20 különböző imputált verzióval. Mindegyik verzióban fut a modell és az IML eljárás, a végén pedig a bizonytalanságot az imputációk közötti szórás is növeli — vagyis közelebb kerülünk a valós varianciához.

Mit vizsgált a tanulmány az IML módszerekben?

Válasz röviden: azt, hogy az imputáció hogyan torzítja a magyarázatok konfidencia-intervallumainak lefedettségét.

A szerzők három, a gyakorlatban nagyon gyakori magyarázót vettek elő:

  1. Permutációs változófontosság (Permutation Feature Importance) – mennyit romlik a modell, ha „összekeverjük” egy változó értékeit.
  2. Parciális függőségi ábrák (PDP) – hogyan változik a becsült kimenet, ha egy változót végigléptetünk.
  3. Shapley/SHAP jellegű értékek – az egyedi predikciók hozzájárulás-bontása.

A fő mérőszám a konfidencia-intervallumok lefedettsége (coverage): ha 95%-os intervallumot mondunk, akkor hosszú távon kb. 95%-ban kellene tartalmaznia a „valódi” értéket. A tanulmány üzenete egyértelmű:

Az egyszeri imputáció tipikusan alábecsüli a varianciát, a többes imputáció pedig a legtöbb esetben közelebb visz a névleges lefedettséghez.

Ez nem akadémiai finomkodás. Ha egy banki modellnél egy SHAP‑alapú magyarázat „túl magabiztos”, akkor a modellkockázati jelentés vagy az ügyfélnek adott indoklás félrecsúszhat. Egészségügyben pedig ugyanez a logika a klinikai bizalomra csapódik rá.

Egészségügyi párhuzam: diagnosztika, triázs, képi AI

Válasz röviden: az imputációs bizonytalanság a klinikai magyarázatoknál közvetlenül a betegbiztonságot érinti.

Vegyünk egy tipikus helyzetet: sürgősségi triázs modell, ami laborok és vitális paraméterek alapján becsli a kockázatot. A hiányzó adat itt nem kivétel, hanem szabály (pl. a D-dimer nincs kész, a testsúly nincs rögzítve). Ha a modell magyarázata szerint „a CRP a fő driver”, de a CRP értékét sok betegnél imputáltuk, akkor két kérdés számít:

  • Mennyire stabil ez a magyarázat?
  • Mekkora a bizonytalanság a magyarázat körĂĽl?

Ugyanez igaz orvosi képalkotásnál is, csak ott a hiány nem mindig „NaN”: lehet eltérő protokoll, hiányzó szekvencia (MR), vagy olyan klinikai metaadat, ami nincs összekötve a PACS-ból. A magyarázhatóság (pl. feature importance klinikai változóknál) és a bizonytalanság együtt adja a bizalmat.

Banki AI: miért különösen veszélyes a „túl szűk” magyarázati intervallum?

Válasz röviden: mert a pénzügyi döntések auditálhatósága és jogi védhetősége a bizonytalanság korrekt kezelésén áll vagy bukik.

A banki környezetben a magyarázatok nem csak „érdekesek”. Gyakran kötelezőek:

  • HitelbĂ­rálat: ĂĽgyfĂ©lnek kommunikált indokok Ă©s belsĹ‘ döntĂ©si log.
  • CsalásfelderĂ­tĂ©s: riasztások priorizálása, operátori bizalom.
  • Modellkockázat-kezelĂ©s: validáciĂł, monitoring, drift elemzĂ©s.

Ha a hiányzó jövedelemkomponenseket egyszer imputáljuk, majd SHAP‑pal rangsoroljuk a változókat, könnyen előállhat, hogy egy változó „top driverként” jelenik meg, miközben a valós bizonytalanság mellett már nem lenne ennyire domináns.

Egy praktikus, pénzügyi példával:

  • A modell szerint a „mĂşltbeli kĂ©sedelem napjai” a legfontosabb változĂł.
  • De az ĂĽgyfelek 18%-ánál ez a mezĹ‘ hiányzik (adatátvĂ©teli hiba, összeolvasztási gond), Ă©s egyszer imputáltuk.
  • A permutáciĂłs fontosság 95%-os intervalluma tĂşl szűk lesz.
  • A validátor csapat azt hiszi, hogy a változĂł stabilan domináns, Ă©s erre Ă©pĂ­t monitoringot.

Majd amikor változik az adatforrás, hirtelen „elromlik” a magyarázat, és senki nem érti miért. Pedig ott volt a válasz: nem kezeltük az imputációs bizonytalanságot.

Hogyan építsd be a többes imputációt az értelmezhető AI workflow-ba?

Válasz röviden: az IML-t ugyanúgy kell „MI‑kompatibilissé” tenni, mint a modellt: pipeline, ismétlés, összevonás.

A legtöbb csapat ott csúszik el, hogy a magyarázatot a végén, egyszer futtatja le. Én azt láttam működni, ha a magyarázhatóságot a modellkockázati pipeline részének tekintjük.

Ajánlott, egyszerű implementációs minta

  1. Hiánymechanizmus feltérképezése

    • MCAR/MAR/MNAR gyanĂş (ĂĽzletileg: miĂ©rt hiányzik?)
    • hiányarány változĂłnkĂ©nt Ă©s szegmensenkĂ©nt (pl. csatorna, rĂ©giĂł, intĂ©zmĂ©ny)
  2. Többes imputáció beállítása (m=10 jó kiindulás)

    • ugyanolyan adattisztĂ­tási szabályok mindegyik imputáciĂłn
    • random seed kezelĂ©s, reproducibilitás
  3. Modellezés és magyarázat imputációnként

    • modellparamĂ©terek azonosak
    • permutáciĂłs fontosság/PDP/SHAP minden imputált adaton
  4. Eredmények összevonása

    • átlagolt magyarázat + imputáciĂłk közötti szĂłrás
    • konfidencia‑intervallumok riportálása
  5. Döntési szabály: mikor „stabil” egy magyarázat?

    • pĂ©ldául: a top 5 változĂł 10 imputáciĂłbĂłl legalább 8-ban top 5
    • PDP görbĂ©k alakja klaszterezhetĹ‘-e imputáciĂłnkĂ©nt?

Mit kommunikálj a döntéshozóknak?

Ha üzleti/klinikai oldalnak magyarázol, ezt a mondatot érdemes megjegyezni:

„A modell nemcsak bizonytalan lehet, hanem a magyarázata is — és a hiányzó adatok ezt felnagyítják.”

A magyarázat mellé érdemes mindig odatenni:

  • hiányarány a kulcsváltozĂłkra,
  • a magyarázat konfidencia-intervallumát,
  • Ă©s egy rövid megjegyzĂ©st: egyszeri vagy többes imputáciĂł törtĂ©nt.

Gyakori kérdések, amik előbb-utóbb feljönnek

„Nem túl drága többes imputációt futtatni?”

Válasz: banki és egészségügyi környezetben általában olcsóbb, mint egy félreértett modell miatti incidens. Kezdd kicsiben: m=5, csak a magyarázatokhoz, és mérd a különbséget.

„Elég, ha robusztus modellt használok (pl. fák)?”

Válasz: nem. A modell lehet robusztus, de az IML konfidencia-intervallum ugyanúgy alábecsülhető egyszeri imputációval.

„Melyik IML módszer a legérzékenyebb?”

Válasz: a tanulmány három módszeren vizsgálja, és a közös tanulság az, hogy az intervallum-lefedettség romlik egyszeri imputáció mellett. Gyakorlatban azt javaslom: amelyik magyarázatot döntésre használod, annál kötelező a bizonytalanság kezelése.

Mit érdemes hazavinni ebből a kutatásból?

Az „értelmezhető AI” nem attól lesz megbízható, hogy szép SHAP‑diagramot teszünk a riportba. Attól lesz megbízható, hogy a bizonytalanságot is komolyan vesszük, már az adatelőkészítésnél. A Golchian–Wright-féle eredmény nekem azért tetszik, mert nagyon gyakorlatias: rávilágít, hogy a hiányzó értékek egyszeri kitöltése hamis pontosságot ad a magyarázatainknak.

A pénzügyi és banki szektorban ez auditálhatóság és jogi védhetőség kérdése. Az egészségügyben pedig betegbiztonság. A kettő meglepően hasonló: mindkettőnél a döntés mögötti indoklásnak nemcsak érthetőnek, hanem statisztikailag őszintének is kell lennie.

Ha most fut egy modelled, amit magyarázol is, egyetlen kérdést tennék fel a csapatnak: a magyarázatok konfidencia‑intervallumai tartalmazzák az imputációs bizonytalanságot, vagy csak úgy teszünk, mintha nem létezne?