IA in sanità e Legge 132/2025: rischi, nodi e opportunità

IA nella Sanità Italiana: Innovazione ClinicaBy 3L3C

La Legge 132/2025 apre l’uso dei dati sanitari per l’IA in Italia, ma crea nodi pratici su privacy, responsabilità e governance. Ecco cosa devono fare ora le strutture sanitarie.

IA in sanitàAI Actdati sanitarigovernance digitaleresponsabilità medicasanità digitale
Share:

IA in sanità e nuova legge italiana: perché riguarda ogni struttura sanitaria

Nel giro di pochi mesi, con la Legge 132/2025 l’Italia è diventata il primo Paese europeo a recepire formalmente l’AI Act. Un primato importante, soprattutto per la sanità italiana, dove l’intelligenza artificiale entra ormai in radiologia, pronto soccorso, telemedicina, gestione liste d’attesa, medicina personalizzata.

La realtà però è meno lineare: la legge apre la strada all’uso dei dati sanitari per l’IA, ma lascia aperti nodi tecnici, giuridici e organizzativi che ogni azienda sanitaria, IRCCS, università e fornitore di soluzioni IA cliniche deve conoscere subito, non quando arriveranno le prime ispezioni o i primi contenziosi.

In questa puntata della serie “IA nella Sanità Italiana: Innovazione Clinica” analizziamo i punti critici della legge e li traduciamo in indicazioni pratiche per chi sta progettando o già utilizzando sistemi di intelligenza artificiale in ospedale o sul territorio.


1. Dati sanitari per l’IA: il trilemma anonimizzazione–pseudonimizzazione–dati sintetici

La Legge 132/2025, all’articolo 8, dichiara di “rilevante interesse pubblico” il trattamento di dati personali, anche sanitari, per ricerca e sviluppo di sistemi di IA. È una buona notizia per diagnosi assistita, modelli predittivi di rischio, triage digitale, ma il modo in cui è scritto l’articolo crea un trilemma operativo.

La norma impone che i dati siano sottoposti a uno tra tre processi:

  • anonimizzazione
  • pseudonimizzazione
  • sintetizzazione (dati sintetici)

Anonimizzazione: tutela massima, utilità minima?

L’anonimizzazione “vera”, irreversibile, è molto più dura di quanto spesso si pensi.

In ambito clinico, rendere irriconoscibili i pazienti significa spesso:

  • rimuovere o aggregare eccessivamente date, luoghi, codici rari di diagnosi
  • eliminare sequenze temporali utilissime per modelli predittivi (ad esempio percorsi di ricovero, risposta ai farmaci nel tempo)

Risultato: dataset sicuri ma poveri, che rischiano di produrre algoritmi poco accurati o inutilizzabili nella pratica clinica.

Se un modello di triage in pronto soccorso non “vede” l’evoluzione temporale dei parametri vitali, diventa molto meno affidabile proprio nei casi complessi.

La legge non entra nel dettaglio delle tecniche di anonimizzazione (k-anonymity, differential privacy, ecc.) né definisce soglie o metriche. Questo lascia le strutture con una domanda concreta: quanto dobbiamo spingere l’anonimizzazione prima che il dataset diventi clinicamente sterile?

Pseudonimizzazione: compromesso utile, ma a rischio

La pseudonimizzazione è, per molti progetti di IA in sanità, l’unica strada realistica: permette di mantenere le correlazioni tra eventi clinici nel tempo sostituendo l’identità del paziente con codici.

Però resta un dato personale a tutti gli effetti. Dunque:

  • serve una base giuridica robusta
  • servono misure di sicurezza forti
  • servono controlli rigorosi sugli accessi e sulla gestione delle chiavi di re-identificazione

La legge non chiarisce quando una pseudonimizzazione possa dirsi “robusta”. Per chi gestisce progetti IA, questo significa dover prendere decisioni tecniche e organizzative senza un chiaro riferimento normativo, sapendo che il giudizio finale arriverà ex post, magari in caso di data breach.

Dati sintetici: grande promessa, pochi standard

I dati sintetici dovrebbero rappresentare la via d’uscita: dataset artificiali che replicano le proprietà statistiche di quelli reali senza riferirsi a persone esistenti.

Il problema è duplice:

  1. Le tecniche sono immature: non esiste un consenso condiviso su quali metodi garantiscano al tempo stesso utilità clinica e protezione da reidentificazione.
  2. Mancano parametri normativi: la legge non dice chi certifica che un dataset sintetico sia “abbastanza sicuro” né con quali metriche.

Per una struttura sanitaria che vuole usare dati sintetici per addestrare un modello di supporto alla decisione clinica, servirebbero almeno:

  • criteri condivisi di valutazione del rischio di reidentificazione
  • linee guida nazionali su quando un dataset sintetico può essere trattato come non personale
  • un processo di validazione indipendente nei casi più delicati

Fino a quando questi elementi mancheranno, molte direzioni sanitarie preferiranno rimandare o ridurre la scala dei progetti di IA.


2. Silenzio-assenso del Garante: via libera o falso senso di sicurezza?

La legge introduce un meccanismo che sulla carta accelera i progetti: comunichi il trattamento al Garante, alleghi la DPIA, aspetti 30 giorni; se non arriva risposta, puoi procedere.

Suona come un’autorizzazione semplificata, ma non lo è.

Il silenzio del Garante non è una protezione assoluta: i poteri ispettivi e sanzionatori restano intatti.

Questo crea una zona grigia rischiosa:

  • i centri di ricerca e le aziende sanitarie devono decidere se avviare progetti anche in assenza di feedback espliciti
  • un intervento del Garante può arrivare mesi dopo, quando l’algoritmo è già stato testato o addirittura integrato nei percorsi clinici

Cosa può fare, in pratica, una struttura sanitaria responsabile

Per non trasformare il silenzio-assenso in una trappola, ha senso impostare il lavoro così:

  1. DPIA davvero sostanziale, non “di facciata”, con analisi dettagliata dei rischi per i diritti dei pazienti.
  2. Documentazione tecnica completa, soprattutto su:
    • modalità di anonimizzazione/pseudonimizzazione
    • architettura di sicurezza
    • controllo degli accessi e logging
  3. Pre-consultazione informale con il DPO interno e, se possibile, con referenti istituzionali (senza attendere i decreti attuativi).
  4. Pianificazione degli scenari peggiori: cosa facciamo se tra 6 mesi il Garante ci chiede di sospendere il trattamento o modifica le condizioni?

Chi vuole fare sul serio IA clinica deve ormai considerare la compliance by design come parte integrante del progetto, non un add-on dell’ultimo mese.


3. Piattaforma nazionale AGENAS: governance e responsabilità oscure

L’articolo 9 della legge prevede una piattaforma nazionale gestita da AGENAS che fornirà suggerimenti algoritmici non vincolanti a professionisti e cittadini: diagnosi probabili, percorsi di cura suggeriti, magari triage per la telemedicina.

Sulla carta, una grande opportunità per ridurre disuguaglianze territoriali nell’accesso a strumenti avanzati di IA. Ma qui emergono tre problemi seri:

  1. Perché titolare è AGENAS e non il Ministero della Salute? Questo sposta la responsabilità politica e rischia di diluirla.
  2. Bias algoritmici: se il sistema penalizza sistematicamente certi gruppi (anziani, donne, minoranze), chi risponde?
  3. Coordinamento tra autorità: Garante Privacy, ACN, Ministero, Regioni… chi ha l’ultima parola quando emergono criticità?

Perché questo interessa direttamente ospedali e software house

Chi oggi sviluppa o acquista soluzioni di diagnostica per immagini, decision support system, sistemi di stratificazione del rischio deve porsi alcune domande:

  • Come si integrerà domani la piattaforma AGENAS con i sistemi già presenti in azienda?
  • Chi controllerà la qualità clinica degli algoritmi nazionali rispetto a quelli locali o commerciali?
  • Come saranno gestiti i conflitti tra linee guida algoritmiche nazionali e protocolli regionali o aziendali?

In assenza di risposte chiare, il rischio è di avere nei prossimi anni un ecosistema frammentato, in cui più algoritmi danno risposte diverse per lo stesso paziente, con responsabilità difficili da attribuire.


4. Responsabilità civile: l’anello mancante per chi usa IA in corsia

La legge ripete il mantra rassicurante: la decisione finale è sempre del medico, l’IA è solo di supporto. Ma nella pratica clinica, chi lavora in reparto sa che le cose non sono così semplici.

Se un algoritmo di supporto diagnostico sbaglia e il medico si fida, il paziente danneggiato a chi chiederà conto?

Oggi le possibilità sono quattro:

  • il medico, per colpa professionale
  • la struttura sanitaria, per responsabilità organizzativa
  • il produttore del dispositivo/software (se qualificato come dispositivo medico)
  • il centro di ricerca che ha sviluppato l’algoritmo

La Legge 132/2025 non chiarisce questo scenario. E l’AI Act aveva già rinviato la questione a una direttiva separata sulla responsabilità, ancora ferma.

Cosa dovrebbero fare subito le direzioni sanitarie

In attesa di una disciplina ad hoc, chi guida strutture sanitarie può già intervenire su tre fronti molto concreti:

  1. Policy interne sull’uso dell’IA clinica
    • definire quando l’uso del sistema è raccomandato, quando è obbligatorio, quando è sconsigliato
    • chiarire quanto peso dare alle indicazioni algoritmiche rispetto al giudizio clinico
  2. Formazione mirata dei professionisti
    • spiegare limiti e incertezze dei modelli (non solo come usarli, ma quando NON usarli)
    • allenare al “contraddittorio digitale”: non accettare passivamente il responso dell’IA
  3. Revisione delle coperture assicurative
    • coinvolgere i broker assicurativi per includere esplicitamente i rischi connessi a errori/uso scorretto di sistemi IA

Senza questo lavoro, il singolo medico rischia di trovarsi schiacciato tra pressioni tecnologiche (“usa il nuovo sistema”) e rischi legali poco chiari.


5. Troppe autorità, nessun protocollo chiaro: impatto sui progetti clinici

La governance dell’IA in Italia mette sullo stesso tavolo:

  • ACN (sicurezza dei sistemi)
  • AGID (indirizzo sull’innovazione digitale)
  • Garante Privacy (protezione dati)
  • AGENAS (piattaforma nazionale sanità)
  • Ministero della Salute, Regioni, autorità di settore

La legge parla di un Comitato di coordinamento, ma non definisce un protocollo operativo. Per chi sviluppa o implementa IA in sanità, questo può tradursi in:

  • richieste diverse (o in conflitto) dalle varie autorità
  • rallentamenti nell’approvazione di progetti pilota
  • difficoltà a capire chi coinvolgere e quando

Come progettare oggi un percorso di compliance credibile

In questo contesto, le strutture più mature stanno adottando approcci simili a questi:

  • creazione di un Comitato IA interno (direzione sanitaria, IT, legale, DPO, risk manager, clinici di riferimento)
  • definizione di checklist standard per ogni nuovo progetto IA:
    • valutazione rischio clinico
    • valutazione rischio privacy
    • valutazione rischio cyber
  • tracciamento puntuale di tutte le decisioni di design e di configurazione del sistema, per poterle giustificare in caso di controllo

Chi si muoverà per primo in modo strutturato avrà un vantaggio competitivo reale, sia nel dialogo con le autorità sia nella partecipazione a progetti nazionali.


6. Come trasformare una legge ambiziosa in innovazione clinica utile

La Legge 132/2025 ha un merito: dichiara apertamente che l’uso secondario dei dati sanitari per l’IA è di interesse pubblico e introduce strumenti come sandbox, formazione obbligatoria, piattaforme nazionali. Il problema è il divario tra principi e attuazione.

Per chi lavora nella sanità italiana e vuole portare davvero l’intelligenza artificiale in corsia, nel CUP, nella telemedicina, la strada passa da alcune scelte strategiche semplici ma impegnative:

  • investire su governance interna dell’IA, non solo sulla tecnologia
  • costruire competenze legali e di data protection dentro i progetti clinici, non a valle
  • pretendere trasparenza dai fornitori (dataset di training, metriche di validazione, gestione dei bias)
  • partecipare ai tavoli nazionali e regionali, per non subire norme e piattaforme disegnate solo “dall’alto”

La legge da sola non garantirà un’IA sicura e utile nella pratica clinica. Possono farlo, invece, quelle strutture che iniziano oggi a trattare l’IA non come gadget tecnologico, ma come nuova infrastruttura clinica, organizzativa e giuridica.

Chi saprà muoversi in questo quadro normativo complesso potrà, nei prossimi 2–3 anni, passare dal pilota sperimentale alla vera innovazione clinica su scala, con benefici concreti per pazienti, professionisti e sistema sanitario nel suo complesso.