Cybersecurity in de zorg: hoge risico’s, kleine budgetten

AI voor Nederlandse Zorg: Innovatie in de Gezondheidszorg‱‱By 3L3C

Zorg heeft waardevolle data, maar krappe budgetten. Zo maak je AI‑innovatie in de zorg veilig met slimme cybersecurity, focus op gedrag en betaalbare basics.

cybersecurity zorgAI in de zorgphishing en helpdeskfraudeinformatiebeveiligingdigitale zorginnovatiedeepfake en social engineeringzorgdata bescherming
Share:

Waarom cybersecurity nĂș prioriteit moet krijgen in de zorg

Zorgorganisaties besteden gemiddeld maar 6% van hun IT‑budget aan beveiliging, terwijl andere sectoren rond de 13% zitten. Tegelijk wordt medische data op het dark web vaak hoger gewaardeerd dan creditcardgegevens. Die combinatie – waardevolle data en beperkte budgetten – is precies waarom Nederlandse zorg zo aantrekkelijk is voor hackers.

In deze serie “AI voor Nederlandse Zorg: Innovatie in de Gezondheidszorg” gaat het vaak over hoe AI zorg slimmer, persoonlijker en efficiĂ«nter maakt. Maar al die slimme systemen draaien op data. Zonder goede digitale veiligheid is elke AI‑toepassing in de zorg een extra aanvalsvector. Dit artikel zoomt in op dat spanningsveld: hoe bescherm je patiĂ«ntdata en AI‑toepassingen als je budget beperkt is en menselijk gedrag de zwakste schakel blijft?

Hieronder krijg je een concreet actieplan: van de nieuwste phishing‑technieken (zoals Adversary‑in‑the‑Middle) tot praktische maatregelen die haalbaar zijn voor ziekenhuizen, VVT‑organisaties, GGZ‑instellingen en eerstelijnszorg.


De echte kwetsbaarheid: niet de techniek, maar het gedrag

De kern is simpel: de meeste cyberaanvallen in de zorg beginnen met een mens, niet met een server.

Uit de praktijk:

  • Ongeveer 83% van alle aanvallen start met een malafide e‑mail; in de zorg ligt dat percentage nĂłg hoger.
  • EĂ©n klik op de verkeerde link kan voldoende zijn om een account, een werkplek of zelfs een heel EPD‑landschap in handen van een aanvaller te geven.

Hier’s wat er vaak misgaat:

  1. Medewerkers overschatten hun eigen alertheid
    “Ik trap daar heus niet in” is een bekende reflex. Juist ervaren professionals zijn kwetsbaar, omdat ze veel beslissingen onder tijdsdruk nemen.

  2. Onheldere regels rond apparaten en toegang
    Als de ene arts vanaf een privé‑tablet mag inloggen en de ander niet, ontstaat grijs gebied. In dat grijze gebied floreert misbruik.

  3. Beveiliging wordt als ‘IT‑probleem’ gezien
    Terwijl veel aanvallen via finance, HR of de zorgvloer lopen: nepfacturen, valse salariswijzigingen, gemanipuleerde declaraties of deepfake‑spraak van een ‘bestuurder’.

Wie serieus met AI in de zorg aan de slag wil – denk aan triage‑algoritmen, voorspellende modellen voor heropnames of capaciteitsplanning – moet menselijk gedrag als primair risico meenemen in het ontwerp. Niet alleen techniek, maar ook processen en cultuur.


Aanvalsstrategie van hackers: van phishing tot Adversary‑in‑the‑Middle

Hackers gebruiken in de zorg grotendeels dezelfde technieken als in het bedrijfsleven, maar richten zich op specifieke zwakke plekken: 24/7‑operatie, hoge tijdsdruk en afhankelijkheid van informatiesystemen.

Klassieke phishing en helpdeskfraude

De bekende patronen blijven uiterst effectief:

  • Phishing‑mail
    Een e‑mail met een ogenschijnlijk legitieme link (EPD, rooster, zorgportaal, HR‑systeem). Na een klik wordt malware geïnstalleerd of worden inloggegevens buitgemaakt.

  • Helpdeskfraude
    Slachtoffers worden via mail, sms of pop‑ups verleid om een ‘helpdesk’ te bellen. De nepmedewerker vraagt om remote toegang of laat ‘beveiligingssoftware’ installeren die in werkelijkheid malware is.

  • Phishing via Teams of LinkedIn
    Zeker bij hogere managementlagen en beslissers zie je gerichte berichten: een CFO of zorgbestuurder krijgt een urgent betaalaanvraag of contractvoorstel binnen via een bekende naam. Dit raakt direct aan finance controls, niet alleen IT‑controls.

Adversary‑in‑the‑Middle (AitM): waarom dit zo gevaarlijk is

AitM‑phishing is een volgende generatie aanval die ook sterke technische maatregelen weet te omzeilen.

Zo werkt het in grote lijnen:

  1. De medewerker krijgt een phishing‑mail met een link naar een website die 1‑op‑1 lijkt op een echte inlogpagina (bijv. Microsoft 365, EPD, portaal).
  2. De website fungeert als ‘tussenpersoon’: de echte inloggegevens en sessiecookies lopen erdoorheen naar de aanvaller.
  3. Met die sessiecookies kan de aanvaller het account overnemen, zelfs als MFA aanstaat.

Volgens veldexperts nemen AitM‑aanvallen met driecijferige percentages per jaar toe; cijfers rond een toename van 146% ten opzichte van vorig jaar worden genoemd, ook in de zorg. De reden is logisch: als de aanvaller één medewerker overtuigt van “log even opnieuw in”, is de slagingskans groot.

Voor organisaties die AI inzetten voor diagnose, beeldanalyse of capaciteitsplanning betekent dit: als een aanvaller een zorgprofessional‑account overneemt, kan die direct bij AI‑systemen, dashboards en gevoelige datasets.


Basis op orde: betaalbare ‘hygiĂ«ne’ voor zorgorganisaties

Zorginstellingen hoeven geen onbeperkt budget te hebben om hun digitale weerbaarheid flink te verhogen. De kunst is om prioriteit te geven aan maatregelen die veel risico wegnemen per euro en per uur inzet.

1. Multi‑factor authenticatie (MFA) als standaard

MFA blijft een van de meest effectieve basismaatregelen:

  • Altijd MFA op externe toegang (webmail, EPD, AI‑portalen, telemonitoring‑dashboards).
  • Geen uitzonderingen voor ‘senior staff’ of medische specialisten.
  • Bij voorkeur moderne methoden zoals push‑meldingen, FIDO‑sleutels of authenticator‑apps in plaats van alleen sms.

AI‑toepassingen in de zorg – bijvoorbeeld beslissingsondersteuning bij radiologie of triage in de SEH – moeten vanaf ontwerp MFA en autorisatieprofielen ondersteunen. “Security by design” moet net zo normaal worden als “privacy by design”.

2. Heldere toegangsregels

Zorginstellingen doen er goed aan om simpele, harde regels vast te leggen:

  • Alleen inloggen vanaf beheerste apparaten (managed laptops, thin clients, VDI‑omgevingen).
  • Toegang beperken op basis van locatie (bijv. alleen vanuit Nederland of vanuit zorgnetwerken/VPN).
  • Strikte rol‑ en taakverdeling: een AI‑beheerder ziet andere data dan een verpleegkundige of financieel controller.

Hoe minder variatie in apparaten en toegangsscenario’s, hoe makkelijker je zowel klassieke IT‑systemen als AI‑platformen veilig beheert.

3. E‑mailfiltering mĂ©t 24/7‑monitoring

E‑mailfiltering helpt, maar alleen als het geen ‘doos die stof vangt’ wordt.

  • Zorg dat verdachte bijlagen, links en afzenders automatisch worden gescoord en gefilterd.
  • Richt een monitoringproces buiten kantoortijden in. Aanvallen starten graag op vrijdagmiddag of in de nacht.
  • Laat security‑alerts ook bot‑ondersteund verwerken: AI‑gedreven detectie kan opvallende patronen in logbestanden en mailverkeer sneller herkennen dan een mens.

Hier zie je hoe AI en cybersecurity elkaar juist versterken: AI‑modellen kunnen afwijkend gedrag signaleren (bijvoorbeeld een artsaccount dat ineens vanuit het buitenland inlogt of ’s nachts grote datasets exporteert).


Menselijk gedrag veranderen: van ‘bewustzijn’ naar routine

Klassieke poster‑campagnes en verplichte e‑learning zijn meestal niet genoeg. Bewustzijn is aardig, maar je wilt gedragsverandering.

Waarom standaard phishing‑simulaties averechts kunnen werken

Veel organisaties sturen periodiek nep‑phishingmails om medewerkers te testen. Dat kan nuttig zijn, maar als structureel beleid heeft het nadelen:

  • Medewerkers gaan zichzelf als ‘geslaagd’ zien als ze de laatste test hebben doorstaan.
  • De focus ligt op het herkennen van één type trucje, terwijl echte aanvallen continu veranderen.

Een zinvollere aanpak:

  • Gebruik simulaties spaarzaam en doelgericht (bijvoorbeeld na grote wijzigingen in processen of systemen).
  • Combineer ze altijd met een korte, praktische terugkoppeling: wat is er geleerd, wat passen we morgen anders toe?

Trainingen op maat, met echte voorbeelden uit jullie zorgorganisatie

Effectieve security‑training in de zorg is concreet, kort en herkenbaar:

  • Laat Ă©chte phishingmails zien die jullie organisatie recent heeft ontvangen (geanonimiseerd waar nodig).
  • Bespreek samen: wat maakte deze mail geloofwaardig, wat had je kunnen checken, welke stappen neem je als je twijfelt?
  • Betrek verschillende doelgroepen apart: zorgprofessionals, bestuur, finance, HR, applicatiebeheerders, AI‑teams.

Voor teams die met AI in de zorg werken (data scientists, AI‑productowners, klinische informatici) horen onderwerpen als model‑integriteit, datalekken in trainingsdata en toegang tot AI‑dashboards standaard in de training.

Maak ‘twijfel’ de norm, geen zwakte

Een cultuur waarin mensen zich dom voelen als ze een bericht checken, werkt in het voordeel van de aanvaller. Beter is:

  • Afspreken: “Twijfel = altijd navragen via een tweede kanaal” (telefonisch, of fysiek als iemand toch op de gang loopt).
  • Duidelijke, laagdrempelige meldroute: één intern mailadres of knop in het EPD/portal om verdachte berichten te melden.
  • Leidinggevenden die openlijk vertellen dat ook zij soms twijfelen en controleren.

AI als wapen voor én tegen aanvallen

AI speelt een dubbele rol in dit verhaal: criminelen gebruiken het, maar zorgorganisaties net zo goed.

Deepfakes en overtuigende social engineering

Met generatieve AI is het kinderlijk eenvoudig geworden om:

  • Een stem na te bootsen op basis van een opname van enkele seconden.
  • E‑mails in foutloos Nederlands te schrijven, compleet met juiste aanspreektitel, functienaam en context.

In de praktijk betekent dat:

  • Een zorgbestuurder kan een ingesproken WhatsApp‑bericht krijgen dat klinkt als de eigen CEO met een “spoedopdracht tot betaling”.
  • Een AI‑projectleider kan een mail krijgen van een ‘leverancier’ met verzoek om API‑sleutels of export van trainingsdata.

De technische verdediging hiertegen is beperkt; de werkelijke verdediging zit in procesafspraken:

  • FinanciĂ«le transacties boven een bepaalde drempel vereisen altijd meervoudige controle en verificatie via een ander kanaal.
  • Kritieke wijzigingen in AI‑systemen (nieuwe modellen live zetten, nieuwe datakoppelingen) vereisen altijd vier‑ogen‑controle.

AI inzetten voor detectie en response

Aan de verdedigende kant kunnen zorgorganisaties AI juist gebruiken om risico’s sneller te zien:

  • Anomaliedetectie in logbestanden: AI signaleert afwijkende patronen in login‑gedrag, data‑export en gebruik van AI‑modules.
  • Intelligente e‑mailanalyse: modellen die niet alleen op bekende malware scannen, maar ook op schrijfstijl, toon en ongebruikelijke combinaties van inhoud.
  • Incident‑response automatiseren: verdachte accounts automatisch tijdelijk blokkeren, sessies beĂ«indigen of extra verificatie afdwingen.

De rode draad: AI‑innovatie in de zorg kan niet los worden gezien van AI‑ondersteunde beveiliging. Wie alleen aan de ene kant investeert, vergroot zijn aanvalsoppervlak zonder zijn verdediging op te schalen.


Praktisch stappenplan voor zorgorganisaties met beperkte budgetten

Voor bestuurders, CIO’s, CMIO’s en AI‑projectleiders die nu denken “waar beginnen we?”, hieronder een concreet stappenplan dat past bij Nederlandse zorgrealiteit:

  1. Maak een korte risicoanalyse rond data en AI

    • Welke systemen bevatten de meest gevoelige data (EPD, GGZ‑dossier, langdurige zorg, beeldbank, AI‑modellen)?
    • Welke gebruikersrollen hebben hier toegang toe?
  2. Zet basishygiëne binnen 6 maanden op orde

    • MFA, toegangsregels, e‑mailfiltering met monitoring, logging van AI‑toegang.
    • Apparaten en toegang waar mogelijk uniformeren.
  3. Introduceer gerichte, scenario‑gebaseerde trainingen

    • Specifiek voor zorgprofessionals, finance, HR en AI‑/IT‑teams.
    • Gebruik recente voorbeelden uit de eigen organisatie.
  4. Borg procesafspraken rond financiële en digitale autorisaties

    • Meervoudig tekenen bij betalingen en grote dataleveringen.
    • Altijd telefonisch verifiĂ«ren bij afwijkende of spoedverzoeken.
  5. Zet AI in voor monitoring waar het meest risico zit

    • Start bijvoorbeeld met AI‑support voor login‑gedrag en mailanalyse.
    • Koppel dit aan een klein, goed getraind SOC‑/securityteam of externe partner.
  6. Maak cybersecurity een vast onderdeel van iedere AI‑businesscase

    • Geen AI‑project zonder paragraaf over risico’s, toegang, logging en misbruikscenario’s.

Waarom dit essentieel is voor een toekomstbestendige AI‑strategie in de zorg

Wie als zorgorganisatie serieus werk maakt van AI in de zorg, kan niet om digitale veiligheid heen. PatiĂ«nten geven alleen met vertrouwen hun data af als ze zien dat je daar zorgvuldig mee omgaat. Zorgprofessionals gaan AI‑beslissingsondersteuning alleen gebruiken als ze weten dat systemen niet van buitenaf gemanipuleerd kunnen worden.

De realiteit is scherp: Nederlandse zorg is een sector met enorm waardevolle data en structureel beperkte budgetten. Juist daarom loont het om slim te prioriteren. De grootste winst zit niet in dure gadgets, maar in:

  • consequent MFA en toegangsregels,
  • duidelijke procesafspraken,
  • gerichte awareness‑training,
  • en slimme inzet van AI voor detectie en response.

Wil je binnen jouw organisatie verder met veilige AI‑toepassingen in de zorg, begin dan niet bij de technologie, maar bij één vraag:

“Wat gebeurt er als één medewerker morgen op de verkeerde link klikt?”

Als je daar vandaag een goed antwoord op kunt geven, heb je de basis gelegd voor een veilige, toekomstbestendige AI‑strategie in de Nederlandse zorg.