Maasstad stopt met populaire AI op de IC. Geen mislukking, maar een teken van volwassen AI-strategie in de zorg. Dit is wat andere ziekenhuizen hiervan kunnen leren.
Waarom een ziekenhuis stopt met populaire AI – en waarom dat goed nieuws is
Het Maasstad Ziekenhuis heeft besloten te stoppen met AI-software voor ontslagondersteuning op de intensive care (IC), terwijl andere Santeon-ziekenhuizen ermee doorgaan en collega-ziekenhuizen staan te trappelen om aan te haken. Dat klinkt als een mislukking, maar het is eerder een signaal dat de Nederlandse zorg volwassen wordt in het gebruik van AI.
Dit besluit raakt precies de kern van waar de serie “AI voor Nederlandse Zorg: Innovatie in de Gezondheidszorg” over gaat: niet hoe je zoveel mogelijk AI inkoopt, maar hoe je AI zinnig, veilig en passend inzet in het zorgproces. In dit artikel gebruik ik de casus Maasstad–Pacmed als kapstok om te laten zien:
- wanneer AI op de IC wél waarde toevoegt,
- waarom een ziekenhuis er toch mee kan stoppen,
- en hoe je als bestuurder, arts of IT-manager voorkomt dat jouw AI-project strandt.
Wat deed die AI-software op de IC precies?
De AI-software van Pacmed voor de IC is een voorbeeld van klinische besluitondersteuning met AI. Simpel gezegd: het systeem analyseert grote hoeveelheden IC-data en voorspelt welke patiënten waarschijnlijk veilig naar een gewone verpleegafdeling kunnen, en bij wie je beter nog kunt wachten.
Dat heeft direct impact op drie grote zorgvraagstukken in Nederland:
- Doorstroom en bedbeschikbaarheid: IC-bedden zijn schaars en duur. Elke dag korter verblijf scheelt personeel, kosten en uitgestelde operaties.
- Patiëntveiligheid: te vroeg ontslaan betekent risico op heropname, complicaties en soms zelfs mortaliteit.
- Werkdruk: IC-teams moeten dagelijks tientallen factoren wegen. Een algoritme kan helpen prioriteren en risico’s inzichtelijk maken.
De belofte van dit soort AI in de zorg is dus helder: efficiëntere ziekenhuiszorg, betere inzet van capaciteit én ondersteuning van professionals, zonder dat zij hun klinische autonomie verliezen.
Waarom stopt Maasstad dan met deze AI op de IC?
Als andere Santeon-ziekenhuizen doorgaan en buitenstaanders in de rij staan, is er meestal geen technisch fiasco. De les uit de meeste Nederlandse AI-projecten in de zorg: de technologie werkt vaak redelijk goed; de context bepaalt het succes.
Enkele zeer waarschijnlijke, inhoudelijke redenen waarom een ziekenhuis bewust kan stoppen:
1. Strategische focus en prioritering
Ziekenhuizen hebben in 2025 een overvolle digitaliseringsagenda: nieuw EPD, regionale gegevensuitwisseling, voorbereiden op de EHDS, cybersecurity, personeelsplanning, noem maar op. Een raad van bestuur moet keuzen maken:
- Gaan we álle veelbelovende AI-oplossingen doorontwikkelen?
- Of concentreren we tijd, geld en menskracht op een paar toepassingen die direct passen bij onze strategie (bijvoorbeeld oncologie, SEH of chronische zorg)?
Het kan dus zijn dat Maasstad concludeert: deze AI is nuttig, maar niet top-3 voor Ăłnze organisatie in de komende jaren.
2. Gebrekkige inbedding in werkprocessen
AI-ontslagondersteuning werkt alleen als het naadloos in het dagelijkse IC-ritme past. In de praktijk zie je vaak:
- nog een extra scherm of applicatie naast het EPD;
- onduidelijkheid over wie de AI-gegevens wanneer bekijkt;
- onvoldoende vertrouwen van artsen en verpleegkundigen.
Als de uitkomsten niet consequent worden gebruikt in de ochtend- en avondoverdracht, wordt AI al snel een “leuke pilot” in plaats van een vast onderdeel van de zorg.
3. Onvoldoende aantoonbare meerwaarde in dát ziekenhuis
Een model kan gemiddeld goed presteren over meerdere ziekenhuizen, maar lokaal minder impact hebben, bijvoorbeeld omdat:
- het IC-team al extreem strak stuurt op ontslagcriteria;
- er weinig variatie in ligduur is, waardoor AI weinig extra winst oplevert;
- de case-mix (bijvoorbeeld veel hoogcomplexe patiënten) anders is dan in de data waarmee het model is getraind.
Dan kun je als ziekenhuis best concluderen: we zien te weinig extra waarde ten opzichte van onze huidige werkwijze.
4. Juridische, ethische of governance-twijfels
Met de komende AI Act, de MDR en strengere eisen rond algoritme-transparantie groeit de druk om AI in de zorg heel strak te borgen. Als de governance nog niet op orde is – wie is verantwoordelijk, hoe monitoren we bias, hoe leggen we beslissingen vast? – kan een organisatie besluiten tijdelijk te stoppen en eerst de randvoorwaarden goed te regelen.
Wat deze casus zegt over AI-adoptie in de Nederlandse zorg
De beslissing van Maasstad zegt minder over de waarde van AI in de zorg op zich, en veel meer over hoe je AI implementeert. Dit zijn de belangrijkste patronen die ik bij Nederlandse ziekenhuizen zie.
AI-projecten mislukken vaker op organisatie dan op techniek
De grootste valkuilen:
- Geen duidelijke eigenaar: is het “van” de IC, van de CMIO, van de CIO, van het datateam, of van de leverancier?
- Te weinig tijd van zorgprofessionals tijdens ontwerp en implementatie.
- Onvoldoende scholing: AI-adviezen worden ervaren als een “black box”. Geen vertrouwen betekent geen gebruik.
- Geen structurele monitoring: na de pilot geen heldere KPI’s meer, geen feedbackloops, geen periodieke herbeoordeling.
Verschillen tussen ziekenhuizen zijn logisch – en gezond
Dat Santeon-broers en -zussen van Maasstad wél doorgaan en andere ziekenhuizen willen aansluiten, laat een belangrijk punt zien: passende zorg betekent ook passende technologie.
- Een topklinisch ziekenhuis met veel IC-capaciteit en drukte op de SEH heeft mogelijk meer baat bij AI-ontslagondersteuning.
- Een kleiner algemeen ziekenhuis kiest misschien liever voor AI-toepassingen in radiologie of triage in de spoedzorg.
Uniforme adoptie is geen doel op zich. Wat je wilt, is dat elk ziekenhuis bewuste, onderbouwde keuzes maakt.
Hoe beslis je of AI op jouw IC zinvol is?
Voor zorgbestuurders, IC-artsen, intensivisten, verpleegkundigen en CMIO’s is de vraag niet óf je iets met AI moet, maar welke concrete AI-toepassing past bij jouw problemen en cultuur. Een praktisch besliskader helpt.
1. Begin met een harde probleemdefinitie
Formuleer het probleem dat je wilt oplossen vóórdat je naar mooie AI-tools kijkt:
- “We willen heropnames na IC-ontslag met 20% verminderen.”
- “We willen gemiddeld één dag kortere IC-ligduur bij COPD-patiënten.”
- “We willen voorkomen dat OK-programma’s uitvallen door IC-bedgebrek.”
Zonder zo’n concreet doel is succes niet te meten.
2. Check datakwaliteit en EPD-integratie
AI heeft schone, betrouwbare en tijdige data nodig. Stel jezelf een paar harde vragen:
- Zijn de belangrijkste IC-parameters uniform en volledig vastgelegd?
- Kan de AI-tool logisch integreren in het bestaande EPD?
- Zijn er afspraken over datadossias, logging en terugkijken van beslissingen?
Als dit niet op orde is, is investeren in datakwaliteit vaak zinniger dan nĂłg een AI-tool aanschaffen.
3. Betrek de werkvloer vanaf dag één
De meeste AI-initiatieven in de Nederlandse zorg slagen of sneuvelen op de betrokkenheid van artsen en verpleegkundigen.
Wat in de praktijk goed werkt:
- IC-verpleegkundigen en intensivisten in het ontwerpteam opnemen.
- Samen beslissen hoe de AI-adviezen worden getoond: score, kleurcodering, risicocategorieën.
- Afspraken maken wanneer je van het AI-advies afwijkt, en hoe je dat documenteert.
4. Werk met duidelijke KPI’s en stopcriteria
Koppel elke AI-toepassing aan meetbare indicatoren, bijvoorbeeld over 6 of 12 maanden:
- ligduur op de IC;
- percentage heropnames binnen 48 of 72 uur;
- aantal geannuleerde operaties wegens IC-capaciteitstekort;
- ervaren werkdruk bij het IC-team (vragenlijsten).
Leg van tevoren vast: onder welke omstandigheden stoppen we, schalen we af of breiden we juist uit? Dan is stoppen, zoals Maasstad doet, geen paniekreactie maar het gevolg van professioneel portfolio-management.
Wat betekent dit voor de bredere AI-strategie in de zorg?
De casus Maasstad–Pacmed past naadloos in de grotere beweging die we in deze blogreeks volgen: AI in de Nederlandse zorg verschuift van pilots en “proof of concepts” naar volwassen, portfoliogestuurde innovatie.
Een paar duidelijke trends:
Van “AI proberen” naar “AI als medisch hulpmiddel beheren”
Met de AI Act, MDR en NEN- en ISO-normen neemt de druk toe om AI net zo serieus te borgen als een infuuspomp of beademingsmachine. Dat vraagt om:
- formele goedkeuringsprocedures;
- risicoklassen en impactanalyses;
- periodieke herbeoordeling van modellen;
- heldere verantwoordelijkheid van raad van bestuur, medisch specialisten en IT.
In dat licht is het helemaal niet vreemd dat een ziekenhuis stopt met een tool die niet (meer) past binnen de gekozen architectuur of governance.
AI koppelen aan passende zorg en IZA-doelen
In het Integraal Zorgakkoord (IZA) ligt de nadruk op passende zorg, regionale samenwerking en zinnige inzet van technologie. AI moet daar direct op aansluiten:
- Minder onnodige ligdagen en onderzoeken.
- Betere inzet van schaarse professionals.
- Meer voorspelbaarheid in zorgpaden.
Ontslagondersteuning op de IC is één route. Andere ziekenhuizen kiezen voor AI in beeldvorming, triage, administratieve ontlasting of voorspellende modellen in de wijkverpleging. De kunst is om een samenhangende AI-roadmap te bouwen in plaats van losse proefballonnen.
Praktische tips als je nu óók met AI in de zorg werkt
Tot slot een paar concrete adviezen, gebaseerd op wat we zien in Nederlandse ziekenhuizen en zorginstellingen.
1. Maak een compacte AI-roadmap voor 2026–2028
Geen glossy rapport van honderd pagina’s, maar een concreet document van hooguit tien pagina’s met:
- 3–5 prioritaire zorgproblemen waar AI bij kan helpen;
- per probleem 1–2 kansrijke toepassingen (diagnostiek, logistiek, IC, triage, etc.);
- een overzicht van lopende pilots, inclusief evaluatiedata en stopcriteria.
2. Richt één multidisciplinair AI-board in
Breng in één gremium samen:
- medisch specialisten (bij voorkeur een CMIO of medisch manager),
- verpleegkundige vertegenwoordiging,
- CIO/IT, datascientists,
- juridische en ethische expertise,
- en iemand van de raad van bestuur.
Laat dit board beslissen over selectie, doorgang, opschaling en beëindiging van AI-toepassingen.
3. Meet altijd óók de zachte effecten
Naast harde KPI’s zoals ligduur en heropnames, wil je weten:
- Voelen artsen zich gesteund of juist beknot door de AI?
- Ervaren verpleegkundigen minder administratieve druk of juist extra clicks?
- Voelen patiënten en naasten zich beter geïnformeerd, of juist ongerust door verwijzingen naar algoritmes?
Deze ervaringen bepalen uiteindelijk of een AI-oplossing blijvend landt in de zorgcultuur.
AI in de Nederlandse zorg: vol gas én vol bewustzijn
De keuze van het Maasstad Ziekenhuis om te stoppen met een gewilde AI-oplossing voor IC-ontslagondersteuning laat zien dat we in Nederland een nieuwe fase ingaan. AI hoort niet meer thuis bij “leuke pilots”, maar bij volwassen zorgstrategie. Soms betekent dat opschalen en standaardiseren, soms ook durven stoppen.
Voor iedereen die betrokken is bij AI in de zorg – van bestuurder tot verpleegkundige – is dit het moment om scherp te kiezen: welke AI-toepassingen dragen direct bij aan passende zorg, werkplezier en betaalbaarheid, en welke niet (meer)?
Wie nu een heldere AI-roadmap maakt, duidelijke governance inricht en stopt met halfslachtige projecten, staat in 2026 sterker dan ziekenhuizen die vooral verzamelaars zijn van losse tools. De realiteit? AI wordt niet per definitie een succes door het in te voeren, maar door net zo kritisch te zijn als Maasstad – en dat is precies wat de Nederlandse zorg nodig heeft.