AI in de zorg: sneller werken begint met goed regelen

AI voor Nederlandse Zorg: Innovatie in de GezondheidszorgBy 3L3C

AI kan de werkdruk in de Nederlandse zorg verlagen – maar alleen als je het goed regelt. Anders kost het vooral extra tijd. Zo pak je het wél slim aan.

AI in de zorggezondheidszorg innovatieadministratieve lastenAI governanceNederlandse ziekenhuizenEPDzorgbeleid
Share:

AI in de zorg: sneller werken begint met goed regelen

Een gemiddelde zorgprofessional is tegenwoordig tot 30–40% van de tijd bezig met administratie. Niet met patiënten, maar met vinkjes, formulieren en dubbelregistraties. Tegelijkertijd wordt overal geroepen dat AI dit gaat oplossen.

Maar hier komt de harde realiteit: als we AI niet goed regelen, kost het ons juist méér tijd, geld en frustratie. Zeker in de Nederlandse zorg.

In deze blog – onderdeel van de serie “AI voor Nederlandse Zorg: Innovatie in de Gezondheidszorg” – laat ik zien waarom goed regelen belangrijker is dan snel starten, wat we kunnen leren van koplopers als ETZ en UMCG, en hoe je als zorgorganisatie zélf de regie houdt.


Waarom AI nu voelt als kans én risico

AI in de zorg belooft veel: minder administratie, slimmere triage, betere monitoring, gepersonaliseerde zorg. In Nederland zie je de eerste serieuze toepassingen al in:

  • radiologie (ondersteuning bij beeldvorming)
  • IC-monitoring en vroegsignalering van achteruitgang
  • automatisch samenvatten van EPD-teksten
  • capaciteitsplanning en roosteroptimalisatie

De belofte is duidelijk: meer tijd voor de patiënt, minder rompslomp, betere kwaliteit. Maar zoals intensivist en AI-specialist Jessica Workum (ETZ) terecht zegt: je kunt technologie niet “lukraak” loslaten in de zorg. Doe je dat wel, dan gebeurt het volgende:

  1. zorgverleners moeten alles extra controleren
  2. niemand weet wie precies verantwoordelijk is
  3. vertrouwen in AI daalt na één fout of slecht voorbeeld
  4. administratieve druk stijgt in plaats van daalt

Het gevolg: AI verdwijnt in de la als “weer zo’n project dat extra werk gaf”. Dat is zonde – en volledig te voorkomen.


Automatiseringsbias: waarom ‘blind vertrouwen’ gevaarlijk is

De kern van verantwoord AI-gebruik in de zorg is eigenlijk heel simpel: AI mag ondersteunen, nooit dominerend beslissen.

Wat is automatiseringsbias?

Automatiseringsbias is de neiging van mensen om de uitkomst van een systeem te snel te geloven, juist omdat het van een computer of AI komt. Zeker als je moe bent, haast hebt of overbelast bent, voelt “de computer zal wel gelijk hebben” als een snelle uitweg.

In de Nederlandse zorgsetting zie je dat risico onder meer bij:

  • beslisregels in triagesystemen in de huisartsenpost
  • AI-ondersteuning bij interpreteren van röntgenfoto’s
  • voorspellende modellen bij IC- of SEH-opnames
  • medicatie- of interactiewaarschuwingen in het EPD

Als de AI zegt: “laag risico”, dan is de verleiding groot om mee te gaan. Maar:

Een AI-model dat 90% van de gevallen goed heeft, is nog steeds levensgevaarlijk als niemand zich verantwoordelijk voelt voor die andere 10%.

Hoe voorkom je automatiseringsbias in de praktijk?

Je voorkomt dit niet met nog een protocol in een la, maar met ontwerpkeuzes, scholing en cultuur:

  • Maak de rol van AI expliciet zichtbaar: label adviezen helder als ‘suggestie’ of ‘ondersteuning’.
  • Toon onzekerheid of bandbreedtes: niet alleen een conclusie, maar ook hoe “zeker” het model is.
  • Stimuleer tegenspraak: maak het normaal dat zorgverleners AI actief mogen en moeten tegenspreken.
  • Train op kritische reflectie: niet wát de tool doet is genoeg, maar hóe je er als professional mee omgaat.

Zonder deze randvoorwaarden wordt AI geen kwaliteitsinstrument, maar een extra risicofactor.


Als AI niet goed geregeld is, neemt de werkdruk toe

Veel bestuurders hopen dat AI “vanzelf” administratieve lasten verlaagt. De praktijk is minder romantisch. Zonder heldere afspraken en goede inrichting wordt AI een extra administratielaag.

Waarom slecht geregelde AI méér tijd kost

Een paar concrete gevolgen die ik vaak zie in zorgorganisaties:

  1. Dubbel documenteren
    AI maakt een samenvatting, maar de arts moet die volledig nalopen, corrigeren en alsnog handmatig ondertekenen. Netto ben je dan langer bezig.

  2. Onduidelijke verantwoordelijkheid
    Als een model een fout advies geeft, wie is dan aansprakelijk? Arts? Ziekenhuis? Leverancier? Zolang dit onhelder is, gaan professionals alles zelf opnieuw controleren.

  3. Extra registratie voor ‘modelvoeding’
    AI-modellen hebben data nodig. Dus worden er nieuwe velden en formulieren toegevoegd “voor het model”. Als daar geen direct merkbare winst tegenover staat, voelt het alleen maar als ballast.

  4. Ingevoerde tools zonder workflow-aansluiting
    Nog een inlog, nog een dashboard, nog een systeem. Terwijl de zorgverlener al in het EPD verdrinkt.

Wanneer gaat AI wél tijd opleveren?

AI in de Nederlandse zorg verlaagt werkdruk alleen als drie dingen kloppen:

  • Proces eerst, technologie daarna
    Start bij het bestaande zorgpad: waar gaat tijd verloren, waar ontstaan fouten, wat frustreert? Dán pas kies je een AI-oplossing.

  • Heldere verantwoordelijkheden
    AI ondersteunt, de eindverantwoordelijkheid ligt bij mensen. Maar: de zorgverlener mag niet individueel opdraaien voor systeemfouten. Dat vraagt afspraken op organisatieniveau en uiteindelijk wet- en regelgeving.

  • Samen ontwerpen met de werkvloer
    Betrek verpleegkundigen, artsen, doktersassistenten en planners vanaf dag één. Hun dagelijkse praktijk bepaalt of een AI-toepassing echt werkt.

Zonder deze drie bouwstenen is AI vooral een nieuwe bron van irritatie.


Wat Nederland nodig heeft: duidelijke kaders en een slim speelveld

De rode draad uit het gesprek tussen ETZ, UMCG en de politiek is helder: techniek loopt sneller dan beleid. Dat is geen verrassing, maar het wordt nu wél echt problematisch.

Mensen van vlees en bloed blijven eindverantwoordelijk

CDA-zorgwoordvoerder Harmen Krul slaat wat mij betreft de juiste toon aan: AI neemt geen beslissingen, mensen van vlees en bloed doen dat. Maar dan moet het systeem om hen heen ook kloppen:

  • De overheid schept duidelijke kaders voor verantwoordelijkheid en toezicht.
  • Zorginstellingen organiseren governance voor AI (denk aan een AI- of datacomité).
  • Leveranciers leveren transparante modellen en durven het te hebben over beperkingen.

Kernpunt: het kan niet zo zijn dat AI in de praktijk beslissingen stuurt, maar niemand juridisch echt verantwoordelijk is voor wat er gebeurt.

Europese regels én Nederlandse koplopers

De AI Act en de European Health Data Space (EHDS) geven een Europees raamwerk. Dat is goed nieuws voor de Nederlandse zorg, want:

  • grensoverschrijdende datastromen en onderzoek worden duidelijker geregeld
  • er komen hogere eisen voor ‘hoog risico’-AI in de zorg
  • patiëntenrechten rondom data en transparantie worden sterker

Maar daar mogen we het niet bij laten. Zoals Jessica Workum aangeeft: Nederland kan en moet een koploperpositie innemen.

Voorbeeld: ETZ en UMCG waren de eerste ziekenhuizen buiten de VS die een groot taalmodel in de klinische praktijk implementeerden. Dat laat zien: we hébben de kennis, de data-infrastructuur en de ambitie. Wat nu nog nodig is:

  • politieke rugdekking
  • structurele financiering voor implementatie (niet alleen pilots)
  • een compacte, slagvaardige expertgroep die praktijk, beleid en techniek verbindt

Praktisch stappenplan: zo organiseer je verantwoorde AI in jouw instelling

Voor iedereen die in 2026 concreet met AI in de zorg aan de slag wil, maar niet in een juridisch of organisatorisch mijnenveld wil stappen, is er een pragmatische aanpak. Dit is hoe veel succesvolle koplopers het doen.

1. Begin bij één scherp afgebakend probleem

Niet “we willen iets met AI”, maar bijvoorbeeld:

  • SEH: wachttijdreductie door slimmere triage
  • Polikliniek: automatische verslaglegging van consulten
  • Verpleeghuis: vroegsignalering van achteruitgang via sensordata

Hoe concreter het probleem, hoe beter je de winst én de risico’s kunt inschatten.

2. Richt een klein multidisciplinair AI-team in

Geen groot nieuw instituut, maar een compact team met:

  • een arts/verpleegkundige uit de praktijk
  • een data scientist / AI-specialist
  • iemand van ICT / informatiebeveiliging
  • een jurist / privacy officer
  • iemand vanuit het bestuur / strategisch beleid

Dit team bewaakt continu: nut, veiligheid, privacy, workflow en haalbaarheid.

3. Leg verantwoordelijkheden en grenzen vast

Voor elk AI-project beantwoord je minimaal:

  • Waarvoor mag het model wel gebruikt worden, en waarvoor niet?
  • Wie is eindverantwoordelijk voor de klinische beslissing?
  • Wie beheert het model (updates, monitoring, datakwaliteit)?
  • Hoe en hoe vaak wordt de werking geëvalueerd met de werkvloer?

Leg dit niet alleen in beleid vast, maar communiceer het simpel en duidelijk naar alle betrokken professionals.

4. Integreer AI in bestaande systemen en processen

AI voor de Nederlandse zorg heeft pas echt impact als het in het EPD en bestaande werkprocessen is ingebouwd.

  • Geen extra losse dashboards als het niet hoeft.
  • Zorg dat output uit AI direct bruikbaar is in bestaande formulieren en flows.
  • Automatiseer daar waar het veilig kan (bijvoorbeeld concept-teksten), maar houd beslissingen bij de professional.

5. Scholing en cultuur: maak AI normaal, niet magisch

Zorgverleners hoeven geen data scientists te worden, maar wel:

  • begrijpen wat een AI-model ongeveer doet
  • weten wat de beperkingen zijn
  • herkennen wanneer je een AI-advies níet moet volgen

Regel daarom:

  • korte, praktijkgerichte trainingen
  • casusbesprekingen waar AI-adviezen worden meegenomen
  • ruimte om nee te zeggen tegen een AI-voorstel – zonder dat dat wordt gezien als weerstand tegen innovatie

Waar dit naartoe gaat: van pilots naar structurele inzet

De Nederlandse zorg staat voor een dubbele uitdaging: personeelstekorten én toenemende zorgvraag. AI is geen wondermiddel, maar zonder slimme inzet van AI gaan we de kwaliteit en toegankelijkheid van zorg simpelweg niet volhouden.

De rode lijn uit deze blog én uit de bredere serie “AI voor Nederlandse Zorg: Innovatie in de Gezondheidszorg” is duidelijk:

  • AI moet de patiëntenzorg versterken, niet de werkdruk verhogen.
  • Technologie, beleid en praktijk moeten samen optrekken.
  • Koplopers laten zien dat het kan – mits je de randvoorwaarden goed organiseert.

De vraag is dus niet meer óf AI een plek krijgt in de Nederlandse zorg, maar hoe volwassen en eerlijk we dat doen. Organisaties die nu investeren in governance, scholing en goede afspraken, hebben over twee jaar een voorsprong: minder administratieve last, meer tijd bij de patiënt, en een beter werkklimaat voor zorgprofessionals.

Ben je bestuurder, CMIO, CNIO, informatiemanager of zorgprofessional en herken je de worsteling? Dan is nu het moment om binnen jouw organisatie het gesprek te starten:

  • Waar kost AI ons nu vooral tijd en twijfel?
  • Welke ene concrete toepassing zouden we komend jaar verantwoord kunnen invoeren?
  • En wie moet er aan tafel zitten om dat goed te regelen?

Wie die vragen serieus oppakt, zet een realistische, maar vooral haalbare stap richting toekomstbestendige zorg met AI.

🇳🇱 AI in de zorg: sneller werken begint met goed regelen - Netherlands | 3L3C