Waarom Maasstad stopt met IC-AI (en wat u daarvan leert)

AI voor Nederlandse Zorg: Innovatie in de GezondheidszorgBy 3L3C

Maasstad stopt met IC-AI van Pacmed. Wat zegt dat over AI in de Nederlandse zorg – en wat kunt u ervan leren bij uw eigen AI-projecten?

AI in de zorgintensive carebeslisondersteuningziekenhuisinnovatieimplementatieSanteonMaasstad Ziekenhuis
Share:

Waarom een ziekenhuis stopt met een populaire AI-tool

Eén IC-afdeling met AI-ondersteuning kan volgens internationale studies tientallen ligdagen per jaar besparen en sterfte met enkele procenten verlagen. Toch heeft het Maasstad Ziekenhuis besloten te stoppen met de AI-software voor ontslagondersteuning op de IC van Pacmed, terwijl andere Santeon-ziekenhuizen ermee doorgaan en collega-ziekenhuizen juist willen instappen.

Dat klinkt tegenstrijdig, maar het laat precies zien waar de Nederlandse zorg nu staat: AI voor de zorg is volwassen genoeg om effect te hebben, maar implementatie en inbedding zijn vaak de echte bottleneck.

In deze blog, onderdeel van de serie AI voor Nederlandse Zorg: Innovatie in de Gezondheidszorg, gebruik ik de casus Maasstad–Pacmed als kapstok. Niet om een leverancier of ziekenhuis de maat te nemen, maar om scherp te krijgen: wanneer heeft AI echt waarde op de werkvloer, en wanneer wordt het een dure proefballon?

We lopen langs de belangrijkste lessen voor bestuurders, CMIO’s, IC-artsen, verpleegkundigen én data-/ICT-teams die serieus met AI in de kliniek aan de slag willen.


Wat deed de Pacmed-AI op de IC precies?

De AI-software van Pacmed voor de intensive care is een voorbeeld van beslisondersteuning: het systeem voorspelt op basis van duizenden vergelijkbare patiënten hoe groot de kans is dat een IC-patiënt veilig ontslagen kan worden naar de verpleegafdeling.

Kort door de bocht:

  • het algoritme krijgt continu actuele IC-data (leeftijd, vitale parameters, labwaarden, medicatie, diagnose, opnameduur, etc.);
  • het model vergelijkt die gegevens met historische data uit meerdere ziekenhuizen;
  • het toont de arts/verpleegkundige een risico-inschatting (bijv. kans op heropname, kans op overlijden binnen X dagen);
  • de professional beslist uiteindelijk zelf, met de AI-uitkomst als extra signaal.

Dit soort AI past perfect in de ambitie om de ziekenhuiszorg efficiënter en veiliger te maken:

  • minder onnodig lange IC-opnames;
  • minder heropnames doordat de timing van ontslag beter klopt;
  • betere inzet van schaarse IC-bedden, belangrijk bij piekbelasting (zoals griepgolven);
  • rustiger besluitvorming voor IC-teams die zwaar onder druk staan.

De technologie zélf is dus niet het probleem. De crux zit in organisatie, cultuur, governance en businesscase.


Waarom stopt Maasstad, terwijl anderen doorgaan?

Het Maasstad Ziekenhuis was één van de eerste ziekenhuizen in Nederland die met deze AI-oplossing aan de slag ging. Nu stoppen ze ermee, terwijl andere Santeon-ziekenhuizen doorgaan en externe ziekenhuizen willen aansluiten. Wat zegt dat?

De les die ik hieruit trek: dezelfde AI kan in ziekenhuis A een succes zijn en in ziekenhuis B vastlopen. Niet door de algoritmes, maar door de context.

Mogelijke redenen om te stoppen (die je in elk AI-project moet checken)

Uit vergelijkbare casussen in Nederland en omringende landen zie je steeds dezelfde clusters van redenen terugkomen:

  1. Te weinig aantoonbare impact in dat ene ziekenhuis

    • De IC-capaciteit is misschien minder krap, waardoor de winst kleiner is.
    • De populatie wijkt af van de trainingsdata, waardoor de voorspelkracht in de praktijk tegenvalt.
    • De AI-uitkomst wordt in de praktijk nauwelijks gebruikt bij beslissingen.
  2. Implementatie slokt te veel tijd en energie op

    • Extra registratielast om het model van goede data te voorzien.
    • Koppelingen met het EPD zijn fragiel of onvolledig.
    • Geen structurele tijd in roosters om met data en AI-uitkomsten te werken.
  3. Cultuur en vertrouwen in het model ontbreken

    • Artsen ervaren de AI als “black box” en nemen het advies niet serieus.
    • Verpleegkundigen zien het als extra controlelaag in plaats van ondersteuning.
    • Onzekerheid over aansprakelijkheid: “Wat als ik het advies volg en het gaat mis?”
  4. Financieel en strategisch schuurt het

    • De licentiekosten passen niet meer in de IC- of ICT-begroting.
    • Er zijn andere strategische prioriteiten (EPD-migratie, fusie, nieuwbouw).
    • Het project is te afhankelijk van een paar kartrekkers en mist breed draagvlak.

Geen enkel ziekenhuis communiceert publiek alle details, maar vrijwel altijd zie je een mix van deze factoren. De keuze om te stoppen betekent dus niet dat AI geen toekomst heeft, maar dat de huidige vorm voor deze context niet klopt.


Drie harde lessen voor AI-implementatie in de Nederlandse zorg

De casus Maasstad–Pacmed is illustratief voor veel AI-projecten in de zorg. Hier zijn drie lessen die ik overal terug zie komen.

1. Begin niet met de tool, begin met de knelpunten

Veel ziekenhuizen starten nog steeds projectvoorstellen met: “We willen iets met AI doen op de IC.” Dat is de verkeerde volgorde.

Beter is:

  1. Definieer één concreet probleem:
    Bijvoorbeeld: “Gemiddelde IC-ligduur ligt 0,8 dag boven het landelijk gemiddelde” of “Heropnames na IC zijn 3% hoger dan vergelijkbare huizen.”
  2. Bepaal de gewenste impact:
    • X dagen korter verblijf per jaar;
    • Y minder heropnames;
    • Z uur besparing per week op MDO’s.
  3. Kijk dan pas welke oplossing past:
    AI kan dan een middel zijn, naast procesoptimalisatie, extra scholing of betere afspraken met de verpleegafdelingen.

Als u dit niet doet, krijgt u precies wat er nu soms gebeurt: een technisch goed werkend AI-model, dat organisatorisch nergens landt.

2. Vertrouwen ontstaat niet uit een mooie ROC-curve

Data scientists en leveranciers laten graag indrukwekkende statistieken zien: AUC van 0,86, sensitiviteit van 92%, noem maar op. IC-artsen kijken daar even naar, knikken, en gaan door met hun werk.

Wat wél werkt om vertrouwen te bouwen:

  • Casusbesprekingen: wekelijks een paar patiënten bespreken waar de AI uitkomst zichtbaar was. Wanneer klopte het, wanneer niet? Wat hadden we anders gedaan mét en zónder AI?
  • Transparantie over beperkingen: duidelijk aangeven voor welke patiëntengroepen het model slecht presteert (bijv. zeldzame aandoeningen, extreem jonge/oude patiënten).
  • Heldere rolafbakening: de AI doet één ding heel goed (bijv. risico op heropname inschatten), de arts doet de rest. Geen vage beloften dat “het systeem overal bij helpt”.

Mijn ervaring: als professionals merken dat hun klinische blik serieus wordt genomen en dat ze fouten van het model mogen benoemen zonder gedoe, groeit vertrouwen veel sneller.

3. Reken de volledige businesscase door – óók de verborgen kosten

De licentie van een AI-oplossing is maar een deel van de rekening. Minstens zo belangrijk:

  • uren van IC-artsen, verpleegkundigen, ICT, functioneel beheer, data engineers;
  • kosten voor datakoppelingen met EPD, dataplatform, monitoring;
  • governance: tijd voor een AI-commissie, ethische toetsing, audits, kwaliteitsrapportages.

Zet daar de baten tegenover:

  • bespaarde IC-ligdagen (met realistische schattingen, niet de meest optimistische scenario’s);
  • minder complicaties en heropnames;
  • minder uitval en werkdruk bij IC-personeel.

De Maasstad-case laat zien: als die rekensom in úw context niet positief uitvalt, is stoppen een rationele keuze, geen nederlaag.


Hoe past dit in de bredere beweging ‘AI voor Nederlandse zorg’?

De Pacmed–IC toepassing staat niet op zichzelf. In Nederlandse ziekenhuizen zien we inmiddels een hele batterij aan AI-toepassingen:

  • triage-algoritmes op de SEH;
  • AI-ondersteuning bij radiologie en pathologie;
  • voorspelmodellen voor heropnames in de interne geneeskunde;
  • capaciteitsplanningsmodellen voor OK’s en bedden.

Het patroon is overal hetzelfde:

AI is technisch vaak verder dan de organisatie die het moet gebruiken.

Wie nu volwassen keuzes wil maken, doet er goed aan om AI te benaderen als een strategisch veranderprogramma, niet als een verzameling losse pilots.

Elementen van een volwassen AI-strategie in de zorg

  1. Heldere visie
    Wat moet AI over 3–5 jaar concreet opleveren voor patiënten, professionals en financiën? Geen slogans, maar meetbare doelen.

  2. Centrale governance

    • AI-commissie met artsen, verpleegkundigen, data-experts, juristen en ethici;
    • beoordelingskader voor nieuwe AI-projecten (klinische waarde, ethiek, privacy, financiering);
    • afspraken over monitoring, bijsturen en stoppen.
  3. Standaard implementatie-aanpak

    • vaste stappen van pilot naar opschaling;
    • checklists voor EPD-integratie, scholing en communicatie;
    • vooraf afgesproken stopcriteria (wanneer trekken we de stekker eruit?).
  4. Samenwerken in netwerken
    Santeon laat mooi zien dat meerdere ziekenhuizen samen trainen en evalueren. Dat verhoogt de datakwaliteit en verkleint de kans dat je alleen een dure niche-oplossing bouwt.

In die bredere context is het helemaal niet gek dat één ziekenhuis besluit te stoppen, terwijl anderen doorgaan. Het hoort bij volwassen worden: je durft ook “nee” te zeggen als iets niet meer past.


Praktische checklist: bent u klaar voor AI op de IC (of elders)?

Wilt u als bestuurder, CMIO of medisch manager iets leren van het Maasstad-besluit, dan is dit een nuttige reality check voordat u de volgende AI-oplossing contracteert.

1. Probleem & doelstelling

  • Hebben we één scherp geformuleerd probleem dat we willen oplossen?
  • Kunnen we in cijfers aangeven wat succes is (bijv. -10% IC-ligduur, -2% heropnames)?

2. Data & techniek

  • Zijn onze data compleet, tijdig en van voldoende kwaliteit?
  • Is duidelijk welke patiëntengroepen buiten de scope van het model vallen?
  • Is er structurele capaciteit voor databeheer en modelmonitoring?

3. Werkproces & adoptie

  • Is helder op welk moment in het proces de AI-uitkomst wordt gebruikt?
  • Is er een groep klinische ambassadeurs die mee-ontwerpt en feedback geeft?
  • Staat in het rooster écht tijd om met de nieuwe werkwijze te oefenen?

4. Governance & verantwoordelijkheid

  • Weet iedereen dat de arts/verpleegkundige eindverantwoordelijk blijft?
  • Zijn afspraken over documentatie van AI-adviezen en beslissingen vastgelegd?
  • Is er een exit-strategie als het project onvoldoende oplevert?

5. Businesscase & financiën

  • Zijn álle kosten (licentie + interne uren + infrastructuur) doorgerekend?
  • Zijn de baten reëel en meetbaar?
  • Past dit binnen onze meerjarenstrategie voor AI in de zorg, of is het een losse pilot?

Scoort u op meerdere punten “nee” of “onduidelijk”? Dan is het verstandig om eerst deze basis op orde te brengen, voordat u een contract tekent. Dat is precies hoe u voorkomt dat u later in dezelfde positie komt als Maasstad.


Wat betekent dit nu concreet voor uw organisatie?

De Maasstad-case laat vooral dit zien: serieuze AI in de zorg betekent óók serieus durven stoppen. Niet alles wat technisch mogelijk is, past in elk ziekenhuis of elke fase.

Voor de bredere serie AI voor Nederlandse Zorg: Innovatie in de Gezondheidszorg is dit een belangrijke stap: we zijn voorbij het stadium van vrijblijvende pilots. De komende jaren winnen ziekenhuizen die:

  • scherp kiezen wáár AI het meeste toevoegt;
  • de implementatie strak organiseren;
  • transparant meten, evalueren en bijsturen;
  • en de moed hebben om “nee” te zeggen als de praktijk tegenvalt.

Mijn advies: gebruik het voorbeeld van Maasstad niet om te concluderen dat AI op de IC “niet werkt”, maar als spiegel voor uw eigen organisatie. Waar zou u vandaag mee durven stoppen, zodat u ruimte creëert voor AI-toepassingen die wél echt waarde leveren voor patiënten én professionals?

🇳🇱 Waarom Maasstad stopt met IC-AI (en wat u daarvan leert) - Netherlands | 3L3C