AI‑personalisatie in de zorg faalt vaak door slechte data en vage psychologische profielen. Zo bouw je wél relevante, uitlegbare en meetbare gepersonaliseerde zorg.

Waarom AI‑personalisatie in de zorg vaak faalt
Bij veel Nederlandse zorgorganisaties staat tegenwoordig ergens op een slide: “gepersonaliseerde zorg met AI”. Mooie term, goed voor subsidies en strategiepresentaties. Maar zodra je onder de motorkap kijkt, valt het vaak tegen. De beloofde gepersonaliseerde behandeling blijkt in de praktijk vooral een generiek algoritme op matige data.
Dit is geen theoretisch probleem. Als je AI‑personalisatie in een ziekenhuis, GGZ‑instelling of eerstelijnszorg verkeerd inzet, krijg je:
- onbetrouwbare risicoscores,
- irrelevante patiëntcommunicatie,
- dure projecten die weinig impact hebben op uitkomsten voor patiënten.
De kernboodschap: psychologische personalisatie op basis van digitale sporen werkt veel minder goed dan de hype doet vermoeden. En juist in de zorg is dat pijnlijk én risicovol. Er is een beter, nuchterder pad: goede data, duidelijke hypothesen, en personalisatie die klinisch en ethisch te verantwoorden is.
In deze blog verbind ik de inzichten uit marketingonderzoek met de realiteit van Nederlandse zorg-AI: van persoonlijke e‑mails tot AI‑triage, van patiëntportalen tot omnichannel zorgcommunicatie.
1. Psychologische personalisatie: mooi verhaal, weinig effect
De belangrijkste les uit recente marketingonderzoeken is hard: digitale voetafdrukken voorspellen iemands persoonlijkheid nauwelijks, en daarop afgestemde boodschappen veranderen gedrag amper.
Een grote meta-analyse over digital footprint data vond dat:
Slechts rond de 5% van de variatie in persoonlijkheid valt te voorspellen uit iemands online gedrag.
In marketing betekent dat: advertenties en mails die zogenaamd zijn afgestemd op extraverte, neurotische of zorgvuldige types zorgen nauwelijks voor ander gedrag. Leuk voor een congrespraatje, maar je groeit er je merk niet mee.
Voor de zorg is de parallel duidelijk:
- Iemand die vaak informatie over depressie leest in een patiëntenportaal, is nog geen ‘neurotisch’ profiel.
- Iemand die ’s nachts veel inlogt, is niet automatisch digitaal vaardig of angstig.
- Iemand die een bepaalde keuzehulp aanklikt, is niet per se gevoelig voor een specifiek type framing.
Toch worden dit soort aannames vaak in AI‑projecten ingebakken. Model krijgt een berg portaaldata of app‑clicks, data scientist plakt er labels op als “voorkeur voor geruststellende toon” of “hoge motivatie”, en voor je het weet hangt er een heel zorgpad aan vast.
De realiteit: je weet het niet. En als je het al een beetje weet, dan zijn de effecten klein en vaak niet stabiel genoeg voor serieus klinisch gebruik.
2. Wat gaat er mis bij AI‑personalisatie in zorgomgevingen?
AI‑personalisatie in de zorg loopt doorgaans stuk op drie punten: datakwaliteit, verkeerde aannames en ontbrekende validatie.
2.1 Datakwaliteit: als je input rommelig is, wordt je zorg dat ook
In marketing heet het ‘data leakage’ of simpelweg ruis; in de zorg zie je hetzelfde:
- Patiënten gebruiken meerdere apparaten en accounts.
- Dossiers zijn incompleet of niet goed gestructureerd.
- Registraties verschillen per afdeling of per arts.
- Zelfrapportages in apps worden half ingevuld of achteraf ingevuld.
Als je op die basis persoonsprofielen gaat bouwen (“deze patiënt is therapietrouw – deze niet”; “deze patiënt wil video – deze wil fysiek contact”), dan zit je er structureel naast.
Voorbeeld uit een ziekenhuiscontext:
- Een AI‑model ziet dat een patiënt meerdere keren een afspraak heeft verzet.
- Het systeem bestempelt de patiënt als “laag gemotiveerd” en toont voortaan extra motiverende content.
- In werkelijkheid werkte de patiënt onregelmatig nachtdiensten en kon pas na roosterwijziging een vast tijdslot krijgen.
Die misclassificatie zorgt voor verkeerde toon, irritatie en mogelijk zelfs minder vertrouwen in de zorgverlener.
2.2 Verkeerde psychologische aannames
Veel zorgcommunicatie steunt ondertussen op populaire psychologiemodellen: nudging, Cialdini, verliesaversie. Op zich prima, zolang je niet doet alsof je voor iedere individuele patiënt een nauwkeurig psychologisch profiel hebt.
In de praktijk zie ik:
- Portalen die patiënten met ‘angstprofiel’ meer geruststellende teksten tonen.
- GGZ‑apps die “strengere reminders” sturen aan vermeende uitstellers.
- Preventieprogramma’s die sociale‑normboodschappen alleen sturen naar ‘gevoelige’ groepen.
Die profielen zijn bijna altijd gebaseerd op fragiele signalen: klikgedrag, bezoektijd, devices, of een eenmalige vragenlijst. De marketingwereld heeft inmiddels laten zien: dit soort psychologische personalisatie verdient zijn eigen hype niet. In de zorg ligt de lat nog hoger.
2.3 Gebrek aan robuuste validatie
Waar marketing nog wegkomt met “CTR +12%”, moet je in de zorg denken in termen van:
- minder heropnames,
- betere therapietrouw,
- lagere zorgconsumptie,
- hogere ervaren kwaliteit van leven.
Toch worden AI‑personalisatieprojecten in de zorg vaak geëvalueerd op zachte of korte‑termijn KPI’s:
- “Meer inlogmomenten in het portaal.”
- “Hogere open‑rate van e‑mails.”
- “Meer gebruik van de app.”
Dat zegt weinig over of de zorg ook echt beter wordt. Je kunt prima een zeer aantrekkelijke, zelfs licht ‘clickbait‑achtige’ notificatie sturen (“Belangrijke informatie over uw behandeling – nu bekijken”), maar dat betekent niet dat de behandeling effectiever is.
3. Wat wél werkt: relevante, uitlegbare AI‑personalisatie
Effectieve personalisatie in de zorg draait niet om iemands persoonlijkheid raden, maar om concrete, observeerbare kenmerken die aantoonbaar samenhangen met betere uitkomsten.
3.1 Werk met harde en zorgrelevante variabelen
Denk aan variabelen die in elk elektronisch patiëntendossier (EPD) of huisartsinformatiesysteem terugkomen:
- leeftijd, comorbiditeit, medicatiegebruik,
- taalniveau of voorkeurstaal,
- eerdere therapietrouw (bv. herhaalrecepten, controlebezoeken),
- woonomgeving (afstand tot poli, beschikbaarheid van OV),
- digitale vaardigheden (af te leiden uit gebruik van portaal en hulpvragen).
Op basis van zulke gegevens kun je zinvollere keuzes maken, zoals:
- Oudere hartfalenpatiënten met beperkte mobiliteit eerder telefonische of thuiszorgopties tonen.
- Patiënten met lage gezondheidsvaardigheden kortere, visueel rijkere uitleg aanbieden.
- Chronische patiënten met bewezen goede zelfregie meer zelfmanagementmodules laten zien.
Dit is nog steeds personalisatie, maar dan zorginhoudelijk en toetsbaar, in plaats van pseudo‑psychologisch.
3.2 Gebruik AI als assistent, niet als orakel
De beste AI‑toepassingen in de Nederlandse zorg die ik zie, werken als beslisondersteuning, niet als autonoom beslissysteem:
- Een AI‑triagetool stelt een risicoprofiel voor, maar de verpleegkundige beslist.
- Een aanbevelingsengine suggereert het meest passende telezorgkanaal, maar de zorgverlener bespreekt dit met de patiënt.
- Een AI‑systeem doet een voorstel voor belmomenten of berichtfrequentie, maar de regie blijft bij het behandelteam.
Hier geldt: AI mag helpen prioriteren, segmenteren en structureren, zolang menselijk toezicht en klinische logica leidend blijven.
3.3 Zorg dat de personalisatie uitlegbaar is
In de zorg moet je kunnen uitleggen waarom een patiënt een bepaalde boodschap, interventie of route krijgt.
Een simpele toets die ik zelf hanteer:
Kan een arts of verpleegkundige in één zin aan de patiënt uitleggen waarom dit gepersonaliseerde voorstel is gedaan, zonder zich te schamen?
Voorbeelden die wel kunnen:
- “U krijgt video-afspraken voorgesteld omdat u ver weg woont en alle vorige videocalls goed verliepen.”
- “U krijgt kortere berichten met extra plaatjes, omdat uit eerdere ervaringen blijkt dat dit voor veel mensen met beperkte leestijd prettiger is.”
Voorbeelden die níét kunnen:
- “U ziet deze boodschap omdat ons model denkt dat u gevoelig bent voor sociale druk.”
- “U krijgt extra waarschuwingen omdat de AI u als weinig gemotiveerd classificeert.”
Als je dat niet normaal kunt uitspreken in een spreekkamer, dan is de personalisatie waarschijnlijk niet ethisch stevig genoeg.
4. Van omnichannel retail naar omnichannel zorg: lessen en valkuilen
Het campagnethema is omnichannel excellence in retail, maar de zorg loopt daar nauwelijks op achter. Patiënten bewegen net zo goed tussen kanalen:
- huisarts, ziekenhuis, paramedici,
- portaal, app, telefoon, balie,
- fysieke folders, video, chat.
AI kan helpen om die reis samenhangend te maken, zolang je een paar retail-lessen serieus neemt.
4.1 Relevantie boven complexiteit
In retail zie je dat simpele aanpassingen vaak meer opleveren dan hoogdravende psychologische segmentaties. In de zorg niet anders.
Praktische voorbeelden:
- Zelfde afspraakherinnering per kanaal (sms, mail, app), maar met aangepast detailniveau.
- Eenduidige medicatie-informatie, ongeacht of iemand die via portaal of folder leest.
- Heldere navigatie in het portaal die aansluit op wat in de spreekkamer is besproken.
Je hebt daar geen ingewikkeld persoonlijkheidsmodel voor nodig, wel goede afstemming tussen IT, zorgprofessionals en communicatie.
4.2 Meet wat ertoe doet
In omnichannel retail leert men langzaam: klikken en opens zijn niet de heilige graal; omzet en klantwaarde wel. Voor zorg-AI geldt iets vergelijkbaars:
- Meten: minder no‑shows, tijdige medicatievernieuwing, betere score op PROMs/PREMs.
- Niet blindstaren op: aantal app‑logins, tijd in portaal, views van educatiepagina’s.
AI‑personalisatie moet zich bewijzen op zorguitkomstniveau, niet alleen op engagementniveau.
4.3 Datagovernance als randvoorwaarde
Waar retailers worstelen met silo’s tussen marketing, e‑commerce en service, heeft de zorg zijn eigen variant:
- losstaande EPD’s per ziekenhuis,
- labdata die niet goed koppelt met huisartsgegevens,
- aparte systemen voor GGZ, wijkzorg en ziekenhuiszorg.
Zolang je dat niet ordent, kun je wel over gepersonaliseerde zorg praten, maar blijf je hangen in eilandoplossingen. Echte omnichannel zorg vraagt om:
- duidelijke datastandaarden,
- afspraken over eigenaarschap van data,
- en vooral: inzichtelijke logging van wat de AI wanneer heeft voorgesteld of aangepast.
5. Praktische checklist: zo zet je AI‑personalisatie gezond in
Om dit concreet te maken, een korte checklist voor Nederlandse zorgorganisaties die met AI‑personalisatie aan de slag zijn of gaan.
-
Definieer een concreet zorgdoel
Bijvoorbeeld: 10% minder no‑shows bij polikliniek X, of 15% betere medicatietrouw bij chronische aandoening Y. -
Kies zorginhoudelijke variabelen
Werk met leeftijd, comorbiditeit, eerdere therapietrouw, afstand, taalniveau – geen vage psychologische labels. -
Start met eenvoudige regels + AI-ondersteuning
Combineer duidelijke business rules (“afstand > 30 km → bied videoconsult”) met AI die helpt prioriteren of voorspellen. -
Voer gecontroleerde A/B‑tests uit
Niet alleen op clicks, maar op echte uitkomsten: gemiste afspraken, opnameduur, heropnames, zelfgerapporteerde kwaliteit van leven. -
Check uitlegbaarheid en ethiek
Kun je de personalisatie in gewone taal toelichten? Past het bij professionele standaarden en wetgeving? Dan zit je beter. -
Betrek zorgprofessionals en patiënten vroeg
Laat hen scenario’s testen, mock‑ups zien en tekstvarianten beoordelen. AI‑personalisatie is geen IT‑feestje. -
Blijf itereren en stop met wat niet werkt
Als een model na serieuze proefperiodes geen verschil maakt op uitkomsten, durf het te schrappen. Niet alles hoeft ‘slim’ te zijn.
Slot: minder magie, meer meetbare waarde in zorg-AI
Psychologische personalisatie op basis van digitale sporen klinkt aantrekkelijk, ook in de zorg. Het suggereert dat je voor elke patiënt de perfecte boodschap en het ideale zorgpad kunt uitserveren. Onderzoek uit de marketingwereld laat echter zien dat die belofte grotendeels lucht is: persoonlijkheidsprofielen uit klikgedrag voorspellen weinig en veranderen gedrag nauwelijks.
Voor AI in de Nederlandse zorg heb je daar simpelweg geen tijd en geen budget voor. De zorgdruk is hoog, personeel schaars, marges klein. Dat vraagt om AI‑toepassingen die:
- bouwen op degelijke data,
- gericht zijn op duidelijke zorgdoelen,
- uitlegbaar en ethisch zijn,
- aantoonbaar bijdragen aan betere, gepersonaliseerde behandeling.
De volgende keer dat iemand in je organisatie een AI‑project voorstelt met ‘psychologische profielen’ en mooie dashboards, is één vraag genoeg: welke zorguitkomst wordt hierdoor aantoonbaar beter, en op basis van welke data durven we dat te beweren?
Zodra je daar een helder, meetbaar en eerlijk antwoord op krijgt, ben je niet langer met clickbait‑personalisatie bezig, maar met echte innovatie in de Nederlandse gezondheidszorg.