Sanità digitale e IA: perché conta la qualità dei dati

IA nella Sanità Italiana: Innovazione ClinicaBy 3L3C

L’IA in sanità non si blocca per mancanza di algoritmi, ma per dati scadenti. Per strutture italiane, la priorità ora è costruire qualità, fiducia e interoperabilità.

sanità digitalequalità dei dati sanitariintelligenza artificiale in sanitàdiagnostica per immaginigovernance dei datiprivacy e sicurezza
Share:

Sanità digitale e IA: perché conta davvero la qualità dei dati

Nel 2025 oltre il 30% dei progetti di intelligenza artificiale in sanità in Europa viene rallentato o bloccato da problemi di qualità dei dati, non da limiti tecnologici. Il paradosso è che ospedali e ASL nuotano nei dati, ma faticano a trasformarli in diagnosi più accurate, percorsi clinici più fluidi o liste d’attesa più gestibili.

Ecco il punto: la vera sfida della sanità digitale italiana non è raccogliere più dati, ma avere dati migliori. Senza dati sanitari affidabili, completi e interoperabili, l’IA in radiologia, la medicina personalizzata, la telemedicina e qualunque progetto di innovazione clinica restano sulla carta o in fase pilota eterna.

In questa tappa della serie “IA nella Sanità Italiana: Innovazione Clinica” vediamo perché la qualità del dato è il vero abilitatore (o freno) dell’IA, quali rischi corre chi la sottovaluta e cosa può fare concretamente una struttura sanitaria italiana già nel 2026 per mettersi in carreggiata.


1. Il nuovo ecosistema dei dati sanitari: norme ci sono, fiducia meno

L’Europa ha già messo sul tavolo gran parte degli strumenti normativi per un uso responsabile dei dati sanitari: Data Act, AI Act, European Health Data Space (EHDS), oltre alla legge italiana sull’intelligenza artificiale.

Il messaggio è chiaro:

  • i dati devono essere sicuri,
  • l’uso dell’IA deve essere tracciabile e controllabile,
  • la condivisione dei dati sanitari per ricerca, governo clinico e programmazione deve avvenire in un quadro trasparente e regolato.

Il problema è culturale:

  • si continua a usare “privacy” come scudo per non decidere;
  • si confonde privacy (diritti della persona) con sicurezza del dato (integrità, disponibilità, affidabilità);
  • si dimentica la terza dimensione: qualità.

La realtà è brutale ma semplice: senza sicurezza non c’è privacy, ma senza qualità non c’è valore. Un fascicolo sanitario elettronico pieno di dati incompleti, duplicati o incoerenti è formalmente protetto, ma praticamente inutile per la clinica e per l’IA.

La compliance normativa è solo il punto di partenza. La fiducia – di cittadini, medici, ricercatori – nasce quando i dati sono anche corretti, consistenti e usati in modo comprensibile.


2. Sanità digitale: non è una gara a chi accumula più dati

La sanità italiana genera ogni giorno milioni di dati: referti, immagini, parametri vitali dai dispositivi, note cliniche, dati amministrativi. Ma non tutto ciò che è registrato è davvero “dato” in senso utile.

Un dato sanitario di qualità per l’IA e per la pratica clinica dovrebbe essere:

  • Completo: niente campi chiave vuoti (diagnosi, codici, dosaggi, date);
  • Coerente: stessa cosa, stesso significato, stesso formato in tutti i sistemi;
  • Tempestivo: aggiornato quando serve, non mesi dopo l’evento;
  • Interoperabile: leggibile e utilizzabile da altri sistemi, dentro e fuori la struttura;
  • Tracciabile: si deve poter risalire alla fonte, al contesto, alle modifiche.

Durante la pandemia, il Green Pass e i sistemi di tracciamento vaccinale hanno dimostrato che l’interoperabilità dei dati sanitari è possibile quando esiste una forte spinta politica e un obiettivo condiviso. È stato uno dei primi esempi concreti di ecosistema dati europeo realmente funzionante.

Oggi si tratta di fare un salto di qualità: portare questa logica dalla gestione emergenziale alla gestione ordinaria. Questo vuol dire, per una struttura sanitaria italiana:

  • uniformare i codici e i vocabolari clinici usati nei reparti;
  • ridurre al minimo il testo libero dove servono codifiche strutturate;
  • allineare laboratorio, radiologia, pronto soccorso e reparto su formati e standard comuni;
  • progettare da subito i flussi dati pensando all’uso secondario (ricerca, audit, IA), non solo alla pratica quotidiana.

Chi si muove ora su questa strada sarà in vantaggio concreto nel momento in cui lo Spazio Europeo dei Dati Sanitari diventerà operativo a pieno regime.


3. IA in diagnostica per immagini: se i dati sono sporchi, l’algoritmo è cieco

Il settore in cui questi problemi esplodono in modo più evidente è la diagnostica per immagini, cuore di molti progetti di IA in radiologia.

Gli algoritmi che:

  • identificano lesioni,
  • misurano volumi,
  • suggeriscono diagnosi o priorità di refertazione,

hanno bisogno di due ingredienti fondamentali:

  1. Immagini di qualità omogenea (standard DICOM, protocolli chiari, metadata completi);
  2. Referti accurati e coerenti, che permettano di associare correttamente immagine e diagnosi.

Se questi ingredienti mancano, succede questo:

  • il modello “impara” su dati rumorosi o sbilanciati;
  • le prestazioni dichiarate in fase di test non si ritrovano nella pratica clinica;
  • aumentano i falsi positivi e falsi negativi;
  • il medico perde fiducia nell’IA e la relega a gadget.

Un esempio concreto

Pensiamo a un ospedale che vuole usare l’IA per supportare la diagnosi precoce della sclerosi multipla. Per addestrare un modello servono migliaia di risonanze con:

  • lesioni correttamente annotate;
  • stessa o comparabile qualità di acquisizione;
  • informazioni cliniche minime collegate (età, sesso, quadro clinico).

Se metà delle immagini manca di annotazioni, se i referti sono testi liberi pieni di varianti (“lesione demielinizzante?”, “lesioni compatibili con SM”, “quadro non conclusivo”), il dataset diventa un mosaico incoerente. L’algoritmo non impara la malattia, impara il caos.

Morale: prima di comprare soluzioni di IA diagnostica, serve un investimento serio su governance e qualità dei dati d’imaging. Chi salta questo passaggio paga il conto dopo, in affidabilità e responsabilità medico-legale.


4. Dal “meglio non fare nulla” a un approccio abilitante

Per anni, in molte aziende sanitarie italiane, la frase implicita è stata: “meglio non toccare i dati, così non rischiamo”. Il risultato si vede:

  • progetti di ricerca bloccati per timore di violare la privacy;
  • sperimentazioni IA ferme alla fase pilota;
  • collaborazioni pubblico–privato rallentate per mancanza di regole interne chiare.

Il paradosso è che la normativa permetterebbe molto più di quanto viene fatto oggi, se supportata da processi robusti e da una governance chiara. Invece la privacy diventa spesso un alibi perfetto per non decidere.

C’è un modo più sano di affrontare il problema: trattare la protezione dati non come un muro, ma come un pavimento solido su cui costruire.

Cosa può fare concretamente una direzione sanitaria

  1. Definire una strategia dati chiara: quali utilizzi primari e secondari dei dati sanitari si vogliono abilitare nei prossimi 3 anni (IA in radiologia, telemedicina, analisi predittiva delle liste d’attesa, ecc.).
  2. Creare un comitato dati multidisciplinare: direzione sanitaria, IT, clinici, DPO, legale, bioeticisti. Non solo per dire “no”, ma per definire come fare in modo sicuro e trasparente.
  3. Standardizzare processi di pseudonimizzazione e anonimizzazione: così ricerca e IA possono progredire senza esporre dati identificativi inutili.
  4. Formare il personale clinico sulla differenza tra privacy, sicurezza e qualità del dato. Se chi inserisce i dati non capisce perché uno standard è essenziale, lo salterà ogni volta che può.

Questo passaggio culturale è decisivo per passare da una sanità digitale difensiva a una sanità digitale abilitante, che usa i dati per migliorare diagnosi, prognosi e organizzazione.


5. L’approccio “umanologico” ai dati sanitari e all’IA

Parlare di IA in sanità senza tenere al centro la persona porta a soluzioni eleganti a livello tecnologico ma respinte da pazienti e professionisti. Qui entra in gioco il paradigma dell’Umanologia, che propone cinque pilastri utilissimi se applicati alla gestione dei dati.

5 pilastri umanologici applicati ai dati sanitari

  1. Etica
    Il dato sanitario non è solo un asset digitale ma un’estensione della persona. Le scelte su raccolta, conservazione e uso devono rispettare la dignità del paziente, non solo il testo della norma. Ad esempio, evitare raccolte massive di dati “nel dubbio”, senza uno scopo clinico o scientifico chiaro.

  2. Empatia
    Un paziente informato e coinvolto è più propenso ad accettare l’uso dei propri dati per ricerca o per sistemi di IA clinica. Serve spiegare in modo comprensibile perché certi dati sono raccolti, chi li userà e con quali garanzie.

  3. Chiarezza
    Se l’IA viene percepita come una “scatola nera”, la naturale reazione è il rifiuto. Bisogna rendere trasparenti:

    • quali dati alimentano i sistemi;
    • in quali casi l’algoritmo interviene;
    • come viene supervisionato dal medico.
  4. Sostenibilità
    Progettare sistemi informativi sanita­ri pensando al lungo periodo, non al singolo appalto. Scegliere standard aperti, soluzioni interoperabili, formati dati non proprietari, per evitare dead end tecnologici che bloccano l’innovazione.

  5. Co-valore
    Il dato sanitario genera valore collettivo quando viene usato per migliorare linee guida, percorsi diagnostico-terapeutici, prevenzione. Condividere in modo responsabile i dati (pseudonimizzati, aggregati) permette di far crescere tutta la rete sanitaria, non solo il singolo ospedale.

L’IA in sanità funziona davvero solo se allinea valore clinico, valore per il paziente e valore per il sistema nel suo complesso.


6. Qualità del dato come scelta strategica (e vantaggio competitivo)

Lavorare sulla qualità dei dati sanitari non è un esercizio accademico. È una scelta strategica che decide chi, nei prossimi 3–5 anni, riuscirà a:

  • usare l’IA in modo affidabile nella diagnostica per immagini;
  • sviluppare modelli predittivi per rischio di ricovero, scompenso, riacutizzazioni;
  • organizzare meglio i percorsi di cura, riducendo sprechi e duplicazioni di esami;
  • accedere a reti europee di ricerca e trial clinici.

Per strutture pubbliche e private italiane, la domanda vera non è più “se” puntare sulla qualità dei dati, ma quando. Rimandare significa arrivare tardi nel momento in cui l’EHDS e le regole sull’uso dell’IA diventeranno pienamente operative.

Quali sono quindi i primi passi “seri”, non cosmetici?

  • avviare un audit della qualità dei dati su 2–3 processi chiave (radiologia, laboratorio, pronto soccorso);
  • definire e applicare standard minimi di qualità per i dataset che alimentano progetti di IA;
  • prevedere una figura di data steward clinico per le aree critiche (es. imaging, oncologia, cronicità);
  • collegare i progetti di IA a indicatori misurabili (riduzione tempi di refertazione, migliore appropriatezza, minori errori), così da giustificare l’investimento sulla qualità del dato.

Questa serie, “IA nella Sanità Italiana: Innovazione Clinica”, punta proprio qui: mostrare che l’IA non è magia, ma il risultato di scelte concrete in termini di organizzazione, competenze e qualità dell’informazione.

La tecnologia è pronta. La domanda è se lo siamo anche noi come sistema: dirigenti, clinici, tecnici, istituzioni. Chi decide oggi di trattare la qualità dei dati come un dovere verso i pazienti e non come un onere amministrativo avrà un vantaggio netto nel costruire la nuova sanità digitale italiana.