Auditálható AI-ügynökök: attesztáció, Audit Agent és kontrollpontok banki és egészségügyi rendszerekhez.

Auditálható AI-ügynökök: kontroll és bizalom valós időben
Egy autonĂłm AI-ĂĽgynök akkor válik igazán kockázatossá, amikor nem csak válaszol, hanem cselekszik: eszközökhöz fĂ©r hozzá, fájlokat kezel, adatbázist kĂ©rdez, űrlapokat tölt, tranzakciĂłkat indĂt, vagy akár klinikai döntĂ©stámogatást ad. Ilyenkor a kĂ©rdĂ©s nem az, hogy „okos-e”, hanem hogy ellenĹ‘rizhetĹ‘-e.
A 2025.12.22-Ă©n publikált friss kutatás egy olyan irányt tol elĹ‘tĂ©rbe, amit Ă©n rĂ©gĂłta hiányolok a gyakorlati bevezetĂ©sekbĹ‘l: ne csak azt mĂ©rjĂĽk, hogy az AI „mennyire hajlamos fĂ©lremenni”, hanem azt, hogy milyen gyorsan Ă©s mennyire megbĂzhatĂłan vesszĂĽk Ă©szre, ha fĂ©lremegy. Ez a verifiability-first (ellenĹ‘rizhetĹ‘sĂ©g-elsĹ‘) gondolkodásmĂłd kĂĽlönösen fontos ott, ahol a hibának ára van: egĂ©szsĂ©gĂĽgyben Ă©s pĂ©nzĂĽgyi/banki folyamatokban egyaránt.
A poszt a „MestersĂ©ges intelligencia a pĂ©nzĂĽgyi Ă©s banki szektorban” sorozat rĂ©sze, de tudatosan áthozom az egĂ©szsĂ©gĂĽgyi párhuzamokat is: ugyanazok a kontrollmechanizmusok segĂtenek abban, hogy egy banki AI-ĂĽgynök ne utaljon rossz helyre, Ă©s abban is, hogy egy diagnosztikai asszisztens ne „hallucináljon” egy tĂ©ves javaslatot Ă©s ne tĂĽntesse el a nyomokat.
Miért most lett kritikus az AI-ügynökök auditálhatósága?
Az ok egyszerű: az LLM-ekbĹ‘l Ă©pĂtett rendszerek ma már nem csak chatelnek, hanem többlĂ©pcsĹ‘s feladatokat hajtanak vĂ©gre Ă©s több eszközt kapcsolnak össze. Egy ĂĽgynök feladata lehet pĂ©ldául:
- bankban: reklamáciĂł kezelĂ©se, azonosĂtási folyamat lĂ©ptetĂ©se, limitek mĂłdosĂtásának elĹ‘kĂ©szĂtĂ©se, csalásgyanĂşs esemĂ©nyek priorizálása
- egĂ©szsĂ©gĂĽgyben: lelet-összefoglalĂł kĂ©szĂtĂ©se, kĂ©palkotĂł vizsgálat triázs támogatása, telemedicina „elĹ‘szűrĂ©s”, idĹ‘pontok Ă©s dokumentáciĂł egyeztetĂ©se
A gond ott kezdődik, hogy ezek a rendszerek eszközhozzáféréssel és „személyiséggel” (prompt/persona) is futnak. A kutatás kiindulópontja szerint korábbi benchmarkok már megmutatták: az ügynök „karaktere” és a tool-access jogosultság erősen befolyásolja a félrecsúszás esélyét.
A valós üzleti és klinikai környezetben viszont nem az a kérdés, hogy lesz-e félrecsúszás. Hanem ez:
Mennyi idĹ‘ alatt derĂĽl ki, Ă©s vissza lehet-e vezetni bizonyĂthatĂłan, mi törtĂ©nt?
Ha erre nincs jó válasz, akkor nincs felelős skálázás sem.
Mit jelent a „Verifiability-First” architektúra a gyakorlatban?
A cikk három, egymásra Ă©pĂĽlĹ‘ elemet javasol. A lĂ©nyeg: a rendszer Ăşgy legyen megtervezve, hogy bizonyĂthatĂłan megfigyelhetĹ‘ Ă©s auditálhatĂł legyen futás közben, ne csak utĂłlagos logokbĂłl.
1) Futásidejű attesztáciĂł: a „mi törtĂ©nt” ne csak állĂtás legyen
A futásidejű attesztáciĂł (attestation) azt cĂ©lozza, hogy az ĂĽgynök műveleteirĹ‘l ne pusztán naplĂł kĂ©szĂĽljön, hanem ellenĹ‘rizhetĹ‘ bizonyĂtĂ©k, ami összeköti:
- a szándékot (mit kellett volna csinálnia)
- a tényleges lépéseket (mit csinált)
- az eszközhasználatot (milyen API-t, adatforrást, parancsot hĂvott)
A kutatás szerint ehhez kriptográfiai Ă©s szimbolikus mĂłdszerek kombináciĂłja jön szĂłba. Magyarul: ne lehessen utĂłlag „szĂ©pĂteni” a törtĂ©netet.
EgĂ©szsĂ©gĂĽgyi pĂ©lda: egy triázs-ĂĽgynök javaslatot ad sĂĽrgĹ‘ssĂ©gre. AttesztáciĂł nĂ©lkĂĽl csak azt látod, mit Ărt le. AttesztáciĂłval azt is, hogy mely tĂĽneteket emelte ki, mely protokoll-szabályokra támaszkodott, Ă©s hogy hozzáfĂ©rt-e olyan adatmezĹ‘höz, amihez nem kellett volna.
Banki pĂ©lda: egy ĂĽgyfĂ©lazonosĂtási (KYC) asszisztens dokumentumokat kĂ©r be. AttesztáciĂłval bizonyĂthatĂł, hogy nem kĂ©rt be indokolatlan adatot, Ă©s a döntĂ©s (továbblĂ©ptetĂ©s/megakasztás) mögött milyen ellenĹ‘rzĂ©sek futottak.
2) Könnyűsúlyú Audit Agent: folyamatos „szándék vs. viselkedés” ellenőrzés
A második elem a beágyazott, könnyűsúlyú Audit Agent: egy külön „őr”, amely folyamatosan figyeli, hogy az ügynök viselkedése összhangban van-e a deployer intenttel (a szervezet által meghatározott szándékkal és szabályokkal).
Itt szerintem a legfontosabb gyakorlati gondolat az, hogy az Audit Agent korlátozott következtetĂ©ssel dolgozik. Ez jĂł hĂr: nem egy másik „szuper-LLM”-et teszĂĽnk az LLM mellĂ© (ami ugyanĂşgy tĂ©vedhet), hanem egy cĂ©lzott, szűk szabály- Ă©s ellenĹ‘rzĂ©skĂ©szletet.
Konkrétan az Audit Agent figyelhet például:
- jogosultsági határok átlépésére (pl. hozzáférési szint, adatminimálás)
- tiltott eszközhasználatra (pl. külső fájlküldés, nem engedélyezett API)
- ellentmondásra a feladatcél és a lépések között
- „stealth” viselkedésre (elrejtett lépések, elhallgatott részletek)
Tézis: ha a rendszeredben nincs ilyen őr, akkor az „autonóm ügynök” gyakorlatilag bizalmi alapon fut.
3) Challenge-response protokollok: a magas kockázatú művelet ne menjen át „csendben”
A harmadik elem a challenge-response attesztáciĂł magas kockázatĂş műveletek elĹ‘tt. A lĂ©nyege: bizonyos lĂ©pĂ©sekhez a rendszernek bizonyĂtania kell, hogy jogos Ă©s helyes a művelet, mielĹ‘tt vĂ©grehajtja.
Gondolj rá úgy, mint egy „4 szem elvre” – csak itt a második pár szem egy verifikációs mechanizmus.
- banki high-risk: kedvezmĂ©nyezett felvĂ©tele, nagyösszegű utalás, limitmĂłdosĂtás, ĂĽgyfĂ©ladatok exportja
- egĂ©szsĂ©gĂĽgyi high-risk: gyĂłgyszerjavaslat, sĂĽrgĹ‘ssĂ©gi irány, diagnosztikai konklĂşziĂł kiemelĂ©se, lelet automatikus továbbĂtása
A cĂ©l nem a lassĂtás. A cĂ©l a kontrollpont.
OPERA benchmark: nem a félrecsúszás esélye, hanem a detektálás sebessége a KPI
A kutatás egy OPERA nevű benchmarkot és értékelési protokollt javasol (Observability, Provable Execution, Red-team, Attestation). Nekem azért tetszik ez a keret, mert a valós működéshez közelebb álló kérdéseket tesz fel.
Az OPERA három dolgot mér:
- A félreigazodás (misalignment) detektálhatóságát – észreveszed-e egyáltalán?
- A detektálás idejét „sunyi” stratégiák mellett – mennyi lépésig tud rossz irányba menni?
- Az ellenőrizhetőségi mechanizmusok ellenállását adverszariális prompt/persona injekcióval szemben
Ez banki és egészségügyi környezetben is kulcs, mert a kár ritkán egyetlen látványos hibából jön. Sokszor kicsi, egymásra rakódó eltérésekből.
A jó AI-kontroll nem azt jelenti, hogy soha nincs hiba. Azt jelenti, hogy a hiba gyorsan és visszakövethetően látszik.
Hogyan fordĂthatĂł ez le banki AI rendszerekre (Ă©s miĂ©rt releváns az egĂ©szsĂ©gĂĽgynek is)?
Az AI a pĂ©nzĂĽgyi szektorban tipikusan ott kap szerepet, ahol nagy az adatmennyisĂ©g Ă©s sok a szabály: csalásfelderĂtĂ©s, hitelkockázat-Ă©rtĂ©kelĂ©s, automatizált ĂĽgyfĂ©lszolgálat, szemĂ©lyre szabott ajánlatok. Az autonĂłm ĂĽgynökök ezt egy szinttel feljebb viszik: nem csak jelzik, hanem intĂ©zik.
Ügyfélszolgálati AI-ügynök: a „jó szándék” nem elég
Egy LLM-alapĂş ĂĽgyfĂ©lszolgálati ĂĽgynök könnyen „tĂşlsegĂt”: kĂ©rhet olyan adatot, amihez nincs joga, vagy olyan megoldást ajánl, ami ellentĂ©tes belsĹ‘ policyval.
Verifiability-first megközelĂtĂ©s:
- attesztált eszközhasználat: bizonyĂthatĂł, mely rendszerekhez nyĂşlt
- Audit Agent: azonnal jelez, ha PII-t kér be feleslegesen
- challenge-response: például zárolás feloldása előtt kötelező kontroll
CsalásfelderĂtĂ©s Ă©s tranzakciĂłs döntĂ©stámogatás: gyors detektálás, kisebb vesztesĂ©g
Csalásnál a „time to detection” pĂ©nzben mĂ©rhetĹ‘. Ha a modell rosszul priorizál, vagy egy támadĂł prompt-injekciĂłval elĂ©ri, hogy bizonyos jeleket figyelmen kĂvĂĽl hagyjon, akkor a vesztesĂ©g nĹ‘.
A kutatás fĂłkusza – mennyire gyorsan Ă©s megbĂzhatĂłan detektálunk – tökĂ©letesen passzol ide. Ugyanez igaz egĂ©szsĂ©gĂĽgyben is: kĂ©sĹ‘n detektált tĂ©ves triázs = rossz betegĂşt.
Hitelkockázat-értékelés: auditálhatóság a megfelelőség és ügyfélbizalom alapja
Az EU-s és hazai megfelelőségi elvárások (model governance, audit trail, döntési dokumentáció) felől nézve a verifikálhatóság nem extra, hanem alap.
Egy auditálhatĂł AI-ĂĽgynöknĂ©l az a nyerĹ‘, ha utĂłlag nem vitatkozunk arrĂłl, hogy „a modell Ăgy gondolta”, hanem vissza tudjuk vezetni:
- milyen adatokat használt
- milyen szabályokon ment át
- hol és miért állt meg
Ez a logika 1:1 átvihető a klinikai döntéstámogatásra: a kórház nem „promptokra” akar támaszkodni, hanem ellenőrizhető folyamatokra.
Gyakorlati ellenĹ‘rzĹ‘lista: mit kĂ©rj AI-ĂĽgynök beszállĂtĂłtĂłl 2026-ra kĂ©szĂĽlve?
Ha banki vagy egészségügyi AI-ügynök bevezetésén dolgozol, én ezeket a kérdéseket tenném fel már a pilot előtt:
- Milyen esemĂ©nyekrĹ‘l kĂ©szĂĽl attesztált naplĂł? (eszközhĂvás, adatlekĂ©rĂ©s, döntĂ©si ág, kimenet)
- Van-e külön Audit Agent jellegű komponens? Mit figyel, mennyire „szűk” a hatásköre?
- Mely műveletek számĂtanak high-risk-nek, Ă©s van-e challenge-response? Ki/mi adja meg a „zöld jelzĂ©st”?
- Hogyan védekeztek prompt/persona injekció ellen? (különösen többcsatornás: email, PDF, chat, jegyzet)
- Mi a cél KPI: pontosság vagy detektálási idő? (szerintem a kettő együtt kell, de az utóbbi gyakran hiányzik)
- Vissza lehet-e játszani egy ügyet end-to-end? (reprodukálhatóság: ugyanazokból a bemenetekből ugyanaz a döntési lánc?)
Ha ezekre nincs tiszta válasz, akkor az ĂĽgynök valĂłjában kĂsĂ©rlet – nem Ă©les rendszer.
Merre tart ez 2026-ban? A bizalom ára: bizonyĂthatĂłság
A trend világos: az autonĂłm AI-ĂĽgynökök terjedni fognak a bankoknál Ă©s az egĂ©szsĂ©gĂĽgyben is, mert kĂ©pesek adminisztráciĂłt lefaragni Ă©s gyorsĂtani a döntĂ©si folyamatokat. Csakhogy a skálázás ára nem több prompt, hanem több kontroll.
A verifiability-first szemlĂ©let azĂ©rt erĹ‘s, mert a vitát a megfelelĹ‘ helyre teszi: nem a modell „jĂłságát” kell bizonygatni, hanem a rendszer működĂ©sĂ©t kell bizonyĂthatĂłvá tenni. Ez az a minimum, amire betegbiztonság Ă©s pĂ©nzĂĽgyi kockázatkezelĂ©s mellett egyszerűen szĂĽksĂ©g van.
Ha a „MestersĂ©ges intelligencia a pĂ©nzĂĽgyi Ă©s banki szektorban” sorozat korábbi tĂ©máiban a csalásfelderĂtĂ©s, hitelkockázat-Ă©rtĂ©kelĂ©s Ă©s automatizált ĂĽgyfĂ©lszolgálat volt a fĂłkusz, akkor ez a poszt egy következĹ‘ lĂ©pĂ©srĹ‘l szĂłl: hogyan tartod kĂ©zben azokat az AI-kat, amelyek már cselekszenek is.
Te melyik területen lenne a legnagyobb haszna egy Audit Agentnek: tranzakciók, KYC, ügyfélszolgálat – vagy inkább klinikai triázs és telemedicina?