Waarom AI‑personalisatie in de zorg vaak faalt

AI voor Nederlandse Zorg: Innovatie in de Gezondheidszorg••By 3L3C

AI‑personalisatie in de zorg faalt vaak door slechte data en vage psychologische profielen. Zo bouw je wĆ©l relevante, uitlegbare en meetbare gepersonaliseerde zorg.

AI in de zorggepersonaliseerde zorgomnichannel zorgdatakwaliteituitlegbare AIpatiƫntcommunicatie
Share:

Featured image for Waarom AI‑personalisatie in de zorg vaak faalt

Waarom AI‑personalisatie in de zorg vaak faalt

Bij veel Nederlandse zorgorganisaties staat tegenwoordig ergens op een slide: ā€œgepersonaliseerde zorg met AIā€. Mooie term, goed voor subsidies en strategiepresentaties. Maar zodra je onder de motorkap kijkt, valt het vaak tegen. De beloofde gepersonaliseerde behandeling blijkt in de praktijk vooral een generiek algoritme op matige data.

Dit is geen theoretisch probleem. Als je AI‑personalisatie in een ziekenhuis, GGZ‑instelling of eerstelijnszorg verkeerd inzet, krijg je:

  • onbetrouwbare risicoscores,
  • irrelevante patiĆ«ntcommunicatie,
  • dure projecten die weinig impact hebben op uitkomsten voor patiĆ«nten.

De kernboodschap: psychologische personalisatie op basis van digitale sporen werkt veel minder goed dan de hype doet vermoeden. En juist in de zorg is dat pijnlijk Ʃn risicovol. Er is een beter, nuchterder pad: goede data, duidelijke hypothesen, en personalisatie die klinisch en ethisch te verantwoorden is.

In deze blog verbind ik de inzichten uit marketingonderzoek met de realiteit van Nederlandse zorg-AI: van persoonlijke e‑mails tot AI‑triage, van patiĆ«ntportalen tot omnichannel zorgcommunicatie.


1. Psychologische personalisatie: mooi verhaal, weinig effect

De belangrijkste les uit recente marketingonderzoeken is hard: digitale voetafdrukken voorspellen iemands persoonlijkheid nauwelijks, en daarop afgestemde boodschappen veranderen gedrag amper.

Een grote meta-analyse over digital footprint data vond dat:

Slechts rond de 5% van de variatie in persoonlijkheid valt te voorspellen uit iemands online gedrag.

In marketing betekent dat: advertenties en mails die zogenaamd zijn afgestemd op extraverte, neurotische of zorgvuldige types zorgen nauwelijks voor ander gedrag. Leuk voor een congrespraatje, maar je groeit er je merk niet mee.

Voor de zorg is de parallel duidelijk:

  • Iemand die vaak informatie over depressie leest in een patiĆ«ntenportaal, is nog geen ā€˜neurotisch’ profiel.
  • Iemand die ’s nachts veel inlogt, is niet automatisch digitaal vaardig of angstig.
  • Iemand die een bepaalde keuzehulp aanklikt, is niet per se gevoelig voor een specifiek type framing.

Toch worden dit soort aannames vaak in AI‑projecten ingebakken. Model krijgt een berg portaaldata of app‑clicks, data scientist plakt er labels op als ā€œvoorkeur voor geruststellende toonā€ of ā€œhoge motivatieā€, en voor je het weet hangt er een heel zorgpad aan vast.

De realiteit: je weet het niet. En als je het al een beetje weet, dan zijn de effecten klein en vaak niet stabiel genoeg voor serieus klinisch gebruik.


2. Wat gaat er mis bij AI‑personalisatie in zorgomgevingen?

AI‑personalisatie in de zorg loopt doorgaans stuk op drie punten: datakwaliteit, verkeerde aannames en ontbrekende validatie.

2.1 Datakwaliteit: als je input rommelig is, wordt je zorg dat ook

In marketing heet het ā€˜data leakage’ of simpelweg ruis; in de zorg zie je hetzelfde:

  • PatiĆ«nten gebruiken meerdere apparaten en accounts.
  • Dossiers zijn incompleet of niet goed gestructureerd.
  • Registraties verschillen per afdeling of per arts.
  • Zelfrapportages in apps worden half ingevuld of achteraf ingevuld.

Als je op die basis persoonsprofielen gaat bouwen (ā€œdeze patiĆ«nt is therapietrouw – deze nietā€; ā€œdeze patiĆ«nt wil video – deze wil fysiek contactā€), dan zit je er structureel naast.

Voorbeeld uit een ziekenhuiscontext:

  • Een AI‑model ziet dat een patiĆ«nt meerdere keren een afspraak heeft verzet.
  • Het systeem bestempelt de patiĆ«nt als ā€œlaag gemotiveerdā€ en toont voortaan extra motiverende content.
  • In werkelijkheid werkte de patiĆ«nt onregelmatig nachtdiensten en kon pas na roosterwijziging een vast tijdslot krijgen.

Die misclassificatie zorgt voor verkeerde toon, irritatie en mogelijk zelfs minder vertrouwen in de zorgverlener.

2.2 Verkeerde psychologische aannames

Veel zorgcommunicatie steunt ondertussen op populaire psychologiemodellen: nudging, Cialdini, verliesaversie. Op zich prima, zolang je niet doet alsof je voor iedere individuele patiƫnt een nauwkeurig psychologisch profiel hebt.

In de praktijk zie ik:

  • Portalen die patiĆ«nten met ā€˜angstprofiel’ meer geruststellende teksten tonen.
  • GGZ‑apps die ā€œstrengere remindersā€ sturen aan vermeende uitstellers.
  • Preventieprogramma’s die sociale‑normboodschappen alleen sturen naar ā€˜gevoelige’ groepen.

Die profielen zijn bijna altijd gebaseerd op fragiele signalen: klikgedrag, bezoektijd, devices, of een eenmalige vragenlijst. De marketingwereld heeft inmiddels laten zien: dit soort psychologische personalisatie verdient zijn eigen hype niet. In de zorg ligt de lat nog hoger.

2.3 Gebrek aan robuuste validatie

Waar marketing nog wegkomt met ā€œCTR +12%ā€, moet je in de zorg denken in termen van:

  • minder heropnames,
  • betere therapietrouw,
  • lagere zorgconsumptie,
  • hogere ervaren kwaliteit van leven.

Toch worden AI‑personalisatieprojecten in de zorg vaak geĆ«valueerd op zachte of korte‑termijn KPI’s:

  • ā€œMeer inlogmomenten in het portaal.ā€
  • ā€œHogere open‑rate van e‑mails.ā€
  • ā€œMeer gebruik van de app.ā€

Dat zegt weinig over of de zorg ook echt beter wordt. Je kunt prima een zeer aantrekkelijke, zelfs licht ā€˜clickbait‑achtige’ notificatie sturen (ā€œBelangrijke informatie over uw behandeling – nu bekijkenā€), maar dat betekent niet dat de behandeling effectiever is.


3. Wat wĆ©l werkt: relevante, uitlegbare AI‑personalisatie

Effectieve personalisatie in de zorg draait niet om iemands persoonlijkheid raden, maar om concrete, observeerbare kenmerken die aantoonbaar samenhangen met betere uitkomsten.

3.1 Werk met harde en zorgrelevante variabelen

Denk aan variabelen die in elk elektronisch patiƫntendossier (EPD) of huisartsinformatiesysteem terugkomen:

  • leeftijd, comorbiditeit, medicatiegebruik,
  • taalniveau of voorkeurstaal,
  • eerdere therapietrouw (bv. herhaalrecepten, controlebezoeken),
  • woonomgeving (afstand tot poli, beschikbaarheid van OV),
  • digitale vaardigheden (af te leiden uit gebruik van portaal en hulpvragen).

Op basis van zulke gegevens kun je zinvollere keuzes maken, zoals:

  • Oudere hartfalenpatiĆ«nten met beperkte mobiliteit eerder telefonische of thuiszorgopties tonen.
  • PatiĆ«nten met lage gezondheidsvaardigheden kortere, visueel rijkere uitleg aanbieden.
  • Chronische patiĆ«nten met bewezen goede zelfregie meer zelfmanagementmodules laten zien.

Dit is nog steeds personalisatie, maar dan zorginhoudelijk en toetsbaar, in plaats van pseudo‑psychologisch.

3.2 Gebruik AI als assistent, niet als orakel

De beste AI‑toepassingen in de Nederlandse zorg die ik zie, werken als beslisondersteuning, niet als autonoom beslissysteem:

  • Een AI‑triagetool stelt een risicoprofiel voor, maar de verpleegkundige beslist.
  • Een aanbevelingsengine suggereert het meest passende telezorgkanaal, maar de zorgverlener bespreekt dit met de patiĆ«nt.
  • Een AI‑systeem doet een voorstel voor belmomenten of berichtfrequentie, maar de regie blijft bij het behandelteam.

Hier geldt: AI mag helpen prioriteren, segmenteren en structureren, zolang menselijk toezicht en klinische logica leidend blijven.

3.3 Zorg dat de personalisatie uitlegbaar is

In de zorg moet je kunnen uitleggen waarom een patiƫnt een bepaalde boodschap, interventie of route krijgt.

Een simpele toets die ik zelf hanteer:

Kan een arts of verpleegkundige in ƩƩn zin aan de patiƫnt uitleggen waarom dit gepersonaliseerde voorstel is gedaan, zonder zich te schamen?

Voorbeelden die wel kunnen:

  • ā€œU krijgt video-afspraken voorgesteld omdat u ver weg woont en alle vorige videocalls goed verliepen.ā€
  • ā€œU krijgt kortere berichten met extra plaatjes, omdat uit eerdere ervaringen blijkt dat dit voor veel mensen met beperkte leestijd prettiger is.ā€

Voorbeelden die nƭƩt kunnen:

  • ā€œU ziet deze boodschap omdat ons model denkt dat u gevoelig bent voor sociale druk.ā€
  • ā€œU krijgt extra waarschuwingen omdat de AI u als weinig gemotiveerd classificeert.ā€

Als je dat niet normaal kunt uitspreken in een spreekkamer, dan is de personalisatie waarschijnlijk niet ethisch stevig genoeg.


4. Van omnichannel retail naar omnichannel zorg: lessen en valkuilen

Het campagnethema is omnichannel excellence in retail, maar de zorg loopt daar nauwelijks op achter. Patiƫnten bewegen net zo goed tussen kanalen:

  • huisarts, ziekenhuis, paramedici,
  • portaal, app, telefoon, balie,
  • fysieke folders, video, chat.

AI kan helpen om die reis samenhangend te maken, zolang je een paar retail-lessen serieus neemt.

4.1 Relevantie boven complexiteit

In retail zie je dat simpele aanpassingen vaak meer opleveren dan hoogdravende psychologische segmentaties. In de zorg niet anders.

Praktische voorbeelden:

  • Zelfde afspraakherinnering per kanaal (sms, mail, app), maar met aangepast detailniveau.
  • Eenduidige medicatie-informatie, ongeacht of iemand die via portaal of folder leest.
  • Heldere navigatie in het portaal die aansluit op wat in de spreekkamer is besproken.

Je hebt daar geen ingewikkeld persoonlijkheidsmodel voor nodig, wel goede afstemming tussen IT, zorgprofessionals en communicatie.

4.2 Meet wat ertoe doet

In omnichannel retail leert men langzaam: klikken en opens zijn niet de heilige graal; omzet en klantwaarde wel. Voor zorg-AI geldt iets vergelijkbaars:

  • Meten: minder no‑shows, tijdige medicatievernieuwing, betere score op PROMs/PREMs.
  • Niet blindstaren op: aantal app‑logins, tijd in portaal, views van educatiepagina’s.

AI‑personalisatie moet zich bewijzen op zorguitkomstniveau, niet alleen op engagementniveau.

4.3 Datagovernance als randvoorwaarde

Waar retailers worstelen met silo’s tussen marketing, e‑commerce en service, heeft de zorg zijn eigen variant:

  • losstaande EPD’s per ziekenhuis,
  • labdata die niet goed koppelt met huisartsgegevens,
  • aparte systemen voor GGZ, wijkzorg en ziekenhuiszorg.

Zolang je dat niet ordent, kun je wel over gepersonaliseerde zorg praten, maar blijf je hangen in eilandoplossingen. Echte omnichannel zorg vraagt om:

  • duidelijke datastandaarden,
  • afspraken over eigenaarschap van data,
  • en vooral: inzichtelijke logging van wat de AI wanneer heeft voorgesteld of aangepast.

5. Praktische checklist: zo zet je AI‑personalisatie gezond in

Om dit concreet te maken, een korte checklist voor Nederlandse zorgorganisaties die met AI‑personalisatie aan de slag zijn of gaan.

  1. Definieer een concreet zorgdoel
    Bijvoorbeeld: 10% minder no‑shows bij polikliniek X, of 15% betere medicatietrouw bij chronische aandoening Y.

  2. Kies zorginhoudelijke variabelen
    Werk met leeftijd, comorbiditeit, eerdere therapietrouw, afstand, taalniveau – geen vage psychologische labels.

  3. Start met eenvoudige regels + AI-ondersteuning
    Combineer duidelijke business rules (ā€œafstand > 30 km → bied videoconsultā€) met AI die helpt prioriteren of voorspellen.

  4. Voer gecontroleerde A/B‑tests uit
    Niet alleen op clicks, maar op echte uitkomsten: gemiste afspraken, opnameduur, heropnames, zelfgerapporteerde kwaliteit van leven.

  5. Check uitlegbaarheid en ethiek
    Kun je de personalisatie in gewone taal toelichten? Past het bij professionele standaarden en wetgeving? Dan zit je beter.

  6. Betrek zorgprofessionals en patiƫnten vroeg
    Laat hen scenario’s testen, mock‑ups zien en tekstvarianten beoordelen. AI‑personalisatie is geen IT‑feestje.

  7. Blijf itereren en stop met wat niet werkt
    Als een model na serieuze proefperiodes geen verschil maakt op uitkomsten, durf het te schrappen. Niet alles hoeft ā€˜slim’ te zijn.


Slot: minder magie, meer meetbare waarde in zorg-AI

Psychologische personalisatie op basis van digitale sporen klinkt aantrekkelijk, ook in de zorg. Het suggereert dat je voor elke patiƫnt de perfecte boodschap en het ideale zorgpad kunt uitserveren. Onderzoek uit de marketingwereld laat echter zien dat die belofte grotendeels lucht is: persoonlijkheidsprofielen uit klikgedrag voorspellen weinig en veranderen gedrag nauwelijks.

Voor AI in de Nederlandse zorg heb je daar simpelweg geen tijd en geen budget voor. De zorgdruk is hoog, personeel schaars, marges klein. Dat vraagt om AI‑toepassingen die:

  • bouwen op degelijke data,
  • gericht zijn op duidelijke zorgdoelen,
  • uitlegbaar en ethisch zijn,
  • aantoonbaar bijdragen aan betere, gepersonaliseerde behandeling.

De volgende keer dat iemand in je organisatie een AI‑project voorstelt met ā€˜psychologische profielen’ en mooie dashboards, is ƩƩn vraag genoeg: welke zorguitkomst wordt hierdoor aantoonbaar beter, en op basis van welke data durven we dat te beweren?

Zodra je daar een helder, meetbaar en eerlijk antwoord op krijgt, ben je niet langer met clickbait‑personalisatie bezig, maar met echte innovatie in de Nederlandse gezondheidszorg.