L’Italia ha una nuova legge sull’IA in sanità. Sulla carta spinge l’innovazione, nella pratica apre molte zone grigie. Ecco dove sono i problemi e come gestirli.

IA in sanità: cosa non funziona (e come rimediare)
Nel 2025 l’Italia è il primo Paese europeo ad aver recepito formalmente l’AI Act con la Legge 132/2025. Un primato notevole, soprattutto per un settore delicato come la sanità digitale e la medicina basata sui dati.
La realtà? Chi oggi dirige un ospedale, guida un IRCCS o lavora su progetti di diagnostica per immagini con IA si trova davanti a una situazione paradossale: la legge apre la porta all’innovazione, ma la attraversi con la sensazione di camminare su un pavimento ancora fresco, dove basta un passo sbagliato per lasciare un’impronta indelebile.
Questo articolo della serie “IA nella Sanità Italiana: Innovazione Clinica” guarda la legge dal punto di vista di chi deve fare davvero progetti di IA clinica: ricercatori, CIO, responsabili legali, direzioni sanitarie. Vediamo cosa non funziona, dove sono le zone grigie e, soprattutto, quali strategie pratiche possiamo adottare da subito per non fermare l’innovazione e ridurre il rischio.
1. Dati sanitari e IA: il trilemma anonimizzazione–pseudonimizzazione–dati sintetici
Per sviluppare algoritmi di supporto alla diagnosi, triage intelligente, predizione del rischio o modelli per la medicina personalizzata, servono enormi quantità di dati clinici. L’articolo 8 della legge dichiara di “rilevante interesse pubblico” questi trattamenti, ma impone tre strade possibili:
- anonimizzazione
- pseudonimizzazione
- sintetizzazione dei dati
Sulla carta è rassicurante. Sul piano tecnico, è un trilemma.
Anonimizzazione: sicurezza alta, utilità spesso bassa
L’anonimizzazione irreversibile di dati sanitari reali è molto più complicata di quanto sembri in un testo normativo.
- Per proteggere davvero i pazienti, bisogna eliminare o distorcere molte informazioni: date, luoghi, rare combinazioni cliniche.
- Nel farlo, però, si perdono proprio quelle dimensioni temporali e contestuali che rendono utile il dataset per addestrare un modello di IA clinica.
Per chi lavora, ad esempio, sulla progressione di una patologia oncologica o sull’aderenza terapeutica cronica, un dataset “troppo” anonimizzato può diventare quasi inutilizzabile.
Cosa fare in pratica:
- progettare i data set a monte pensando al modello di IA: definire quali variabili sono davvero essenziali e su quali si può intervenire più pesantemente per la privacy;
- usare tecniche avanzate di anonimizzazione (es. k-anonimato, l-diversità, t-closeness) documentando in dettaglio le scelte nella DPIA;
- coinvolgere fin da subito il DPO e il team legale per evitare di dover rifare tutto a progetto avanzato.
Pseudonimizzazione: più valore per la ricerca, più rischio regolatorio
La pseudonimizzazione mantiene un legame, diretto o indiretto, con l’identità del paziente. Da un punto di vista clinico è spesso la soluzione più sensata:
- permette studi longitudinali robusti;
- consente di aggiornare i dati nel tempo;
- rende possibile la verifica e la correzione di errori.
Il problema è un altro: quando un dato pseudonimizzato è davvero “sufficientemente protetto”? La legge non definisce criteri tecnici precisi, lasciando molta discrezionalità ai centri di ricerca e, a posteriori, al Garante.
Strategie prudenziali per strutture sanitarie e IRCCS:
- separare rigorosamente gli ambienti: un sistema gestisce le chiavi di pseudonimizzazione, un altro i dati analitici;
- limitare al minimo il numero di persone che possono, anche solo teoricamente, ricostruire l’identità;
- prevedere audit periodici interni e, se possibile, una revisione indipendente delle misure tecniche.
Dati sintetici: promettenti, ma ancora senza regole condivise
I dati sintetici sono spesso presentati come la soluzione ideale: dati artificiali, con proprietà statistiche simili ai dati reali, senza contenere informazioni su individui reali.
Nella pratica:
- non esiste ancora uno standard condiviso su quali tecniche garantiscano davvero bassa rischio di reidentificazione;
- studi recenti hanno dimostrato che, con alcuni approcci generativi, si possono inferire caratteristiche del dataset originale.
La legge non dice chi decide se un dataset sintetico è “abbastanza sicuro” né quali parametri usare. Questo, per chi deve firmare una DPIA, è un problema serio.
Approccio consigliato per chi sviluppa IA clinica:
- usare i dati sintetici come strato aggiuntivo di protezione, non come scusa per abbassare la guardia;
- documentare metodologie, metriche di privacy (es. rischio di membership inference) e limiti noti;
- prevedere, nei progetti più delicati, una fase iniziale di validazione con dati sintetici e una successiva fase controllata con dati pseudonimizzati.
2. Il silenzio-assenso del Garante: via libera o trappola?
La legge introduce un meccanismo apparentemente favorevole alla ricerca: se il Garante non risponde entro 30 giorni alla comunicazione di un trattamento, il silenzio vale come assenso.
Sembra la fine della burocrazia infinita. In realtà, non è così semplice.
Il Garante ha chiarito che il decorso del termine non esaurisce i suoi poteri ispettivi. Tradotto: il progetto può partire, ma l’Autorità può intervenire anche dopo mesi, quando il modello è addestrato, i risultati sono pubblicati, magari il sistema è in uso clinico.
Perché questo crea incertezza per chi innova in sanità
Chi guida progetti di IA in un’azienda sanitaria deve fare i conti con tre fattori:
- tempi clinici e di ricerca sempre più stretti;
- investimenti importanti (infrastrutture, competenze, consulenze legali);
- rischio di dover fermare o modificare radicalmente il progetto a posteriori.
Senza indicazioni più precise su quando e su quali basi il Garante può intervenire ex post, molti direttori generali e responsabili legali tenderanno a scegliere la strada più prudente: non avviare progetti complessi, oppure limitarli alle sperimentazioni locali a basso profilo.
Come ridurre il rischio operativo
Finché non arriveranno chiarimenti o linee guida ufficiali, una strategia pragmatica può includere:
- coinvolgere il Garante in modo proattivo, ad esempio chiedendo chiarimenti informali (tramite associazioni di categoria, reti di IRCCS, società scientifiche);
- investire in DPIA solide e dettagliate, trattandole come documenti scientifici, non come moduli burocratici;
- prevedere nel piano di progetto una “riserva” di budget e tempi per adeguamenti post-valutazione.
Chi gestisce un portafoglio di progetti di IA per telemedicina, triage, diagnostica per immagini dovrebbe strutturare una vera e propria governance del rischio regolatorio, non limitarsi a un “vediamo cosa dice il Garante tra 30 giorni”.
3. La piattaforma nazionale AGENAS: opportunità o nuovo livello di complessità?
La Legge 132/2025 prevede una piattaforma nazionale di supporto alle decisioni, gestita da AGENAS, che fornirà suggerimenti algoritmici non vincolanti a medici e cittadini.
In teoria, potrebbe diventare un’ottima infrastruttura condivisa per:
- sistemi di supporto alla prescrizione;
- analisi comparativa di percorsi diagnostico-terapeutici;
- strumenti di orientamento per il cittadino.
Ma la scelta di affidare la titolarità del trattamento ad AGENAS, e non direttamente al Ministero della Salute, apre una serie di domande.
Governance e accountability: chi risponde degli errori?
Poniamo un caso concreto:
- un algoritmo della piattaforma tende a suggerire terapie meno aggressive per pazienti sopra una certa età;
- nel tempo emerge un bias che penalizza, ad esempio, gli anziani fragili;
- un ospedale si è affidato a quel suggerimento per costruire i propri PDTA.
Chi risponde?
- il singolo medico, che formalmente ha la “decisione finale”?
- la struttura che ha incorporato il suggerimento algoritmico nei propri protocolli?
- AGENAS, come titolare del trattamento e gestore della piattaforma?
- il Ministero, che ne ha previsto l’esistenza?
Senza un disegno chiaro di governance, il rischio è che la responsabilità si “diluisca” e nessuno abbia incentivo forte a pretendere trasparenza, audit indipendenti, spiegabilità dei modelli.
Cosa dovrebbe pretendere chi opera sul territorio
Le aziende sanitarie che, nei prossimi anni, si collegheranno alla piattaforma dovrebbero chiedere esplicitamente:
- documentazione chiara sui dati usati per addestrare i modelli;
- metriche di performance distinte per fasce d’età, genere, comorbidità rilevanti;
- procedure trasparenti per segnalare errori o bias e ottenere correzioni tracciate.
In pratica, andrebbe trattata come si tratterebbe una grande tecnologia clinica esterna: con commissioni interne di valutazione, coinvolgendo direzioni sanitarie, risk manager, comitati etici.
4. Responsabilità civile: l’anello mancante per medici e strutture
Il punto più critico per la clinica quotidiana è forse quello meno affrontato dalla legge: chi paga quando l’algoritmo sbaglia e un paziente subisce un danno?
Il testo ribadisce il principio antropocentrico: la decisione finale è sempre del medico, l’IA è solo di supporto. Sulla carta è rassicurante, ma nella pratica crea una situazione rischiosa per i professionisti.
Il paradosso clinico
Immaginiamo un sistema di IA per la diagnosi radiologica:
- il modello segnala come “molto improbabile” la presenza di una lesione maligna;
- il radiologo, vedendo un referto apparentemente coerente e validato, si allinea al suggerimento;
- dopo mesi emerge un tumore in fase avanzata sullo stesso paziente.
In assenza di regole specifiche, il rischio è che il medico venga considerato responsabile comunque: sia se segue l’IA, sia se non la segue.
Questo frena l’adozione reale dei sistemi di IA ad alto impatto clinico. Non basta dire “il giudizio è umano”: servono regole di responsabilità condivisa.
Cosa possono fare oggi strutture e professionisti
Nell’attesa di una disciplina più chiara (anche a livello UE), alcune mosse concrete sono possibili:
- definire protocolli interni che specifichino come usare l’IA: quando è raccomandata, quando è solo opzionale, quando va espressamente contraddetta;
- documentare sempre, in cartella clinica, il ruolo giocato dall’IA nella decisione (ad esempio con un flag o una nota strutturata);
- aggiornare le coperture assicurative, inserendo in polizza l’uso di sistemi di supporto decisionale basati su IA;
- formare i clinici non solo sugli aspetti tecnici, ma anche sulle implicazioni medico-legali.
Ho visto realtà ospedaliere italiane che, dove questi passi sono stati fatti, riescono a sperimentare IA in radiologia, pronto soccorso e terapia intensiva con molta più serenità.
5. Troppe autorità, nessun protocollo chiaro: il rischio di blocco
La governance nazionale dell’IA in sanità coinvolge:
- ACN (Agenzia per la Cybersicurezza Nazionale);
- AGID;
- Garante Privacy;
- AGENAS;
- Ministero della Salute e altre autorità di settore.
La legge prevede un comitato di coordinamento, ma oggi manca un protocollo operativo che dica chi fa cosa, quando, con quali priorità.
Un sistema di IA clinica che gira su infrastrutture ospedaliere critiche, elabora dati sanitari sensibili e influenza decisioni terapeutiche rientra potenzialmente nelle competenze di tutte queste entità.
Impatto sui progetti di IA clinica
Per chi deve portare in produzione un sistema di:
- triage automatizzato in pronto soccorso;
- rischio riammissione ospedaliera;
- ottimizzazione dei posti letto tramite modelli predittivi;
il risultato può essere uno solo: tempi lunghi, richieste sovrapposte, incertezza sulle approvazioni necessarie.
Come organizzarsi a livello di struttura
Le aziende sanitarie che vogliono davvero usare l’IA in modo strategico dovrebbero dotarsi di una cabina di regia interna che riunisca:
- IT e cybersecurity;
- direzione sanitaria;
- ufficio legale / DPO;
- ricerca e innovazione;
- risk management.
Questa cabina di regia dovrebbe:
- mappare, per ogni progetto di IA, quali autorità sono potenzialmente coinvolte;
- centralizzare i contatti con l’esterno, evitando che ogni reparto vada in ordine sparso;
- costruire nel tempo una “memoria istituzionale” su cosa ha funzionato, quali richieste sono ricorrenti, quali standard di documentazione vengono apprezzati dai regolatori.
Non è solo una questione di compliance. È un fattore competitivo: chi struttura bene questa governance oggi, domani sarà in grado di scalare dai pilot di IA a un vero ospedale data-driven.
Verso una IA clinica matura: cosa fare nei prossimi 12 mesi
La Legge 132/2025 è un passo avanti, non la parola definitiva sulla IA nella sanità italiana. Il divario tra principi e pratica è ancora ampio, ma non è un motivo per fermarsi.
Per chi lavora in ospedali, ASL, IRCCS o aziende di tecnologia sanitaria, i prossimi 12 mesi possono essere usati in modo molto concreto:
- costruire competenze interne su dati sanitari, IA e privacy, andando oltre i webinar generici;
- scegliere alcuni casi d’uso mirati (ad esempio in diagnostica per immagini, percorsi cronici, telemonitoraggio) da sviluppare come progetti pilota “esemplari” anche sul piano regolatorio;
- investire in documentazione rigorosa (DPIA, protocolli clinici, audit dei modelli) che potrà diventare un patrimonio riutilizzabile per altri progetti;
- partecipare alle consultazioni e ai tavoli tecnici che si apriranno attorno ai decreti attuativi: chi porta casi reali spesso riesce a influenzare la normativa più di quanto pensi.
La posta in gioco è alta: non è solo una questione di nuove tecnologie, ma di come vogliamo organizzare la sanità italiana basata sui dati da qui ai prossimi dieci anni. O restiamo bloccati tra paura e ambiguità, oppure usiamo questa fase di incertezza per costruire, passo dopo passo, un modello di innovazione clinica con IA che sia davvero sicuro, utile e sostenibile.