AI kan administratielast in de zorg verlagen, maar alleen als we processen, governance en verantwoordelijkheden scherp regelen. Anders kost het vooral extra tijd.
Waarom AI in de zorg nu vaak méér tijd kost dan het oplevert
Zorgprofessionals besteden in Nederland gemiddeld 30 tot 40 procent van hun tijd aan administratie. Tegelijk investeren ziekenhuizen en zorgorganisaties fors in AI-oplossingen die juist die druk zouden moeten verlagen. Toch hoor ik van bestuurders en dokters regelmatig: “Leuk die AI-pilot, maar in de praktijk kost het me nu vooral extra tijd.”
Daar zit de crux. AI in de zorg werkt alleen als we het goed regelen: met duidelijke kaders, slimme processen en eerlijke afspraken over verantwoordelijkheid. Doen we dat niet, dan creëren we vooral nieuwe administratieve rompslomp, juridisch gedoe en frustratie op de werkvloer.
In deze blog – onderdeel van de serie AI voor Nederlandse Zorg: Innovatie in de Gezondheidszorg – ga ik in op drie vragen waar vrijwel elke Nederlandse zorgorganisatie nu tegenaan loopt:
- Hoe benut je AI om écht administratieve lasten te verlagen?
- Hoe voorkom je automatiseringsbias en onveilig gebruik?
- Hoe regel je governance en verantwoordelijkheid zó, dat het werk lichter wordt in plaats van zwaarder?
We gebruiken de dialoog tussen intensivist en AI-specialist Jessica Workum (ETZ) en CDA-zorgwoordvoerder Harmen Krul als vertrekpunt, en vertalen hun punten naar concrete stappen voor jouw organisatie.
1. AI als oplossing voor administratieve lasten – maar dan wél goed ingericht
AI kan in de Nederlandse zorg direct tijd winnen op administratief werk, mits processen en randvoorwaarden vooraf zijn doordacht.
Ziekenhuisbrede schattingen laten zien dat artsen en verpleegkundigen tot 40 procent van hun tijd kwijt zijn aan verslaglegging, zoeken in dossiers, scoren en registreren. Generatieve AI en slimme decision support kunnen daar grote happen uit wegnemen:
- automatische verslaglegging van poli- of MDO-gesprekken
- samenvattingen van dikke EPD-dossiers
- voorspellende modellen voor triage of heropname
- assistenten die vragen beantwoorden over protocollen
Maar hier gaat het in de praktijk mis: de technologie wordt neergezet als een soort tooltje naast het bestaande werkproces. Gevolg: zorgverleners moeten én alles zelf doen, én achteraf controleren wat de AI heeft voorgesteld. Dubbel werk.
De realiteit? AI bespaart alleen tijd als je werkprocessen herschikt. Dat betekent bijvoorbeeld:
- Verslaglegging anders organiseren: wie start het AI-verslag, wie controleert, wie autoriseert?
- EPD-schermen aanpassen zodat AI-output logisch in de workflow verschijnt
- Duidelijk maken welke taken de professional mag overslaan dankzij AI, in plaats van “alles nog even na te lopen voor de zekerheid”
Zonder dit soort keuzes blijft AI een pilotfeestje voor de innovatiemanager, maar verandert er niets op de werkvloer.
2. Automatiseringsbias: waarom blind vertrouwen op AI gevaarlijk is
Automatiseringsbias is een van de grootste risico’s bij AI in de zorg: we nemen de output te snel voor waar aan, juist omdat het uit een ‘slim systeem’ komt.
Jessica Workum waarschuwt hier terecht voor. Iedereen die met klinische decision support of voorspellende modellen heeft gewerkt, herkent dit:
- Bij hoge werkdruk neem je eerder de AI-voorspelling over
- Je denkt onbewust: “Als het zo in het systeem staat, zal het wel kloppen”
- Je hebt soms simpelweg geen tijd om de achterliggende data en aannames te checken
Dat is precies het punt waar AI van hulpstuk in risico verandert.
Hoe voorkom je automatiseringsbias in de praktijk?
Ik zie in Nederlandse ziekenhuizen een aantal werkende maatregelen:
-
Ontwerp AI als tweede paar ogen, niet als orakel
Laat het systeem altijd uitleg geven: waarom komt het tot deze suggestie? Welke factoren wegen zwaar? Transparantie dwingt tot nadenken. -
Train op ‘AI-geletterdheid’
Niet alleen een eenmalige workshop, maar structureel in opleiding en bijscholing: hoe werkt een model, wat kan het wel en niet, welke bias kan ontstaan? Maak dit net zo normaal als scholing over medicatieveiligheid. -
Maak het checken van AI-output onderdeel van het protocol
Bijvoorbeeld: “Bij AI-voorspelling boven drempel X, altijd altijd minimaal twee gegevens in het dossier actief controleren.” Simpel, maar het voorkomt blind varen. -
Registreer en bespreek near misses door AI
Behandel AI-fouten en bijna-fouten in M&M-besprekingen of veiligheidsrondes. Niet om iemand af te rekenen, maar om het model en het gebruik ervan te verbeteren.
Automatiseringsbias gaat niet weg met een extra lijn in het privacyreglement. Het vraagt om klinische afspraken, scholing en een cultuur waarin het normaal is om AI tegen te spreken.
3. Verantwoordelijkheid: wie is er aansprakelijk als AI ‘meedenkt’?
Zonder heldere afspraken over verantwoordelijkheid wordt AI een juridisch mijnenveld en groeit de administratieve last juist.
De angst die Workum schetst, hoor ik vaak: “Als ik als arts verantwoordelijk blijf voor alle AI-output, moet ik álles controleren. Dan bespaart AI me niets, maar kost het me tijd én stress.”
Aan de andere kant stelt Krul terecht dat beslissingen in de zorg nooit volledig aan systemen mogen worden overgelaten. De eindverantwoordelijkheid hoort bij mensen van vlees en bloed te liggen.
Een werkbaar model voor verantwoordelijkheid
Wat werkt in de praktijk is een gelaagd model van verantwoordelijkheid, dat je als organisatie expliciet vastlegt:
-
De zorgprofessional
Blijft verantwoordelijk voor de uiteindelijke beslissing richting patiënt, niet voor de interne werking van het model. Hij/zij moet kunnen uitleggen waarom de AI-adviezen zijn gevolgd of afgeweken. -
De zorginstelling
Is verantwoordelijk voor selectie, validatie, implementatie en monitoring van AI-systemen. Dus: is het model geschikt voor onze populatie, hoe borgen we kwaliteit, wie beoordeelt updates? -
De leverancier
Draagt verantwoordelijkheid voor de technische performance, documentatie, uitleg van beperkingen, en tijdige updates conform wet- en regelgeving.
Leg dit vast in:
- interne beleidsdocumenten (AI-governance, medisch specialistische richtlijnen)
- verwerkersovereenkomsten en contracten
- opleidings- en autorisatiemodellen (wie mag wat gebruiken?)
Zodra dit concreet is, zie je iets belangrijks gebeuren: vertrouwen in het gebruik neemt toe en de neiging om alles ‘voor de zekerheid’ dubbel te doen neemt af. Dat is precies wat nodig is om tijd terug te winnen voor directe patiëntenzorg.
4. Governance en politiek: zonder kaders geen schaalbare AI in de Nederlandse zorg
Koploperprojecten laten zien wat kan, maar zonder landelijke en Europese kaders blijft AI versnipperd, onduidelijk en kostbaar.
Nederland heeft een sterke uitgangspositie. Denk aan ziekenhuizen als ETZ en UMCG die als eerste buiten de VS met grote taalmodellen in de kliniek experimenteerden. We hebben:
- hoge digitaliseringsgraad (EPD, beeldbank, landelijke uitwisselinitiatieven)
- sterke academische centra en AI-onderzoeksgroepen
- een cultuur van samenwerken in netwerken en consortia
Toch blijven veel zorgorganisaties hangen in pilots. De oorzaak zit vaak niet in de technologie, maar in ontbreken van duidelijke kaders:
- Wat mag wel en niet met patiëntdata bij AI-training?
- Wanneer is een model ‘goed genoeg’ om in de kliniek te gebruiken?
- Hoe toetsen we bias en fairness op Nederlandse populaties?
- Welke rol speelt de European AI Act en de Europese gezondheidsdataspace in ons beleid?
Wat heb je als zorgorganisatie nú nodig van beleid en politiek?
Ik zou het concreet maken in drie vragen richting overheid en brancheorganisaties:
-
Zorg voor praktische richtlijnen per zorgdomein
Geen generieke AI-brochures, maar heldere handreikingen: zo ga je om met AI bij triage, zo bij beeldvorming, zo bij taalmodellen in het EPD. -
Organiseer een compacte landelijke expertgroep mét zorgveld
Geen log overlegcircus, maar een klein team met zorgprofessionals, juristen, data scientists, patiëntvertegenwoordigers en insurers dat snel kaders en voorbeeldcontracten oplevert. -
Verbind financiering aan structurele implementatie, niet alleen aan pilots
Subsidies die stoppen bij proof-of-concept helpen weinig. Zorgverzekeraars en overheid zouden ook de transitie naar dagelijks gebruik moeten financieren: aanpassing van processen, scholing, beheer.
Voor AI in de Nederlandse zorg is 2025–2026 hét moment: Europese regels worden concreet, de druk op arbeidsmarkt en betaalbaarheid loopt op, en de technologie is volwassen genoeg. Wie nu de governance goed inricht, heeft daar de komende tien jaar voordeel van.
5. Praktische stappen: zo regel je AI zó dat het tijd oplevert
Wil je dat AI in jouw organisatie tijd vrijspeelt in plaats van opeet, begin dan niet met tools, maar met vijf concrete organisatorische stappen.
1. Stel een multidisciplinaire AI-stuurgroep in
Klein, slagvaardig en met mandaat. Minimaal:
- een medisch specialist of verpleegkundig specialist
- een CMIO/ CNIO of zorg-ICT-lead
- een jurist / privacy officer
- een data scientist / AI-expert
- iemand vanuit de patiënt-/cliëntenraad
Geef deze groep de taak om:
- AI-principes en randvoorwaarden voor jouw organisatie te formuleren
- selectiecriteria voor AI-oplossingen vast te leggen
- een route voor beoordeling, pilot, validatie en uitrol te definiëren
2. Kies één concreet probleem rondom administratielast
Begin niet met “AI in de hele organisatie”, maar bijvoorbeeld met:
- ontslagbrieven automatisch opstellen
- poli-gesprekken samenvatten
- verpleegkundige rapportage structureren via spraak
Meet vóór en ná:
- benodigde tijd per handeling
- ervaren werkdruk
- aantal fouten of correcties
Alleen met harde cijfers kun je later beargumenteren waarom je AI breder wilt inzetten en welke vorm werkt.
3. Ontwerp het werkproces vóórdat je techniek uitrolt
Teken samen met zorgverleners de nieuwe workflow:
- Waar start de AI-toepassing in het proces?
- Wie ziet de AI-output wanneer?
- Wat mag je dankzij AI schrappen of vereenvoudigen in je oude proces?
Als je dit niet doet, krijg je er alleen stappen bij. Dan wordt “even de AI gebruiken” een extra vinkje in plaats van een vervanging van bestaand werk.
4. Leg verantwoordelijkheid en gebruiksgrenzen expliciet vast
Per AI-toepassing:
- beschrijf waarvoor het model wel en niet gebruikt mag worden
- leg vast dat de professional beslisser blijft, maar níet technisch verantwoordelijk is voor het model
- definieer wanneer je verplicht bent te overrulen (bij twijfel, bij inconsistentie met klinisch beeld, etc.)
Hang dit niet weg in een map op intranet; maak het onderdeel van scholing, onboarding en teamoverleggen.
5. Richt monitoring en feedback in vanaf dag één
Laat AI-toepassingen niet ‘zwart’ draaien. Zorg dat je:
- output kunt steekproefsgewijs controleren
- afwijkingen en incidenten eenvoudig kunt melden
- structureel evaluatiemomenten hebt (bijvoorbeeld elk kwartaal) met de betrokken teams
Zo bouw je stap voor stap vertrouwen op – én bewijs dat AI daadwerkelijk bijdraagt aan passend, betaalbaar en uitvoerbaar zorgaanbod.
Slot: vorm de toekomst van AI in de zorg samen – of loop straks achter de feiten aan
AI is geen toverstaf die het personeelstekort in de zorg oplost, en ook geen gadget voor in het innovatierapport. AI is een nieuwe laag in het zorgproces, die óf tijd vrijmaakt voor patiënten, óf nog meer tijd opslokt. Het verschil zit volledig in hoe we het organiseren.
Nederland heeft alles in huis om een koploper te zijn: vooruitstrevende ziekenhuizen, sterke tech-partners en een zorgveld dat snakt naar verlichting van de werkdruk. Maar dan moeten bestuurders, professionals, leveranciers en politiek nu wel samen duidelijke keuzes maken over randvoorwaarden, governance en verantwoordelijkheid.
Mijn advies: gebruik 2026 als het jaar waarin jullie organisatie AI niet alleen uitprobeert, maar structureel goed regelt. Start klein, meet scherp, leg afspraken vast, en betrek zorgprofessionals en patiënten vanaf het eerste gesprek.
De vraag is niet meer óf AI onderdeel wordt van de Nederlandse gezondheidszorg. De vraag is: ga jij het zo regelen dat jouw organisatie er tijd, kwaliteit en werkplezier mee wint?