Come AIACT e i dati sintetici aiutano la sanità italiana a usare l’IA in modo trasparente, sicuro e senza bias, in linea con AI Act e GDPR.

IA in sanità: innovare sì, ma senza nuovi pazienti di serie B
Nel 2024 l’AI Act è entrato in vigore in Europa. Da quel momento, ogni direzione sanitaria attenta si è fatta la stessa domanda: come posso usare l’intelligenza artificiale in ospedale senza espormi a rischi clinici, legali ed etici?
La risposta non è scegliere tra innovazione e prudenza, ma progettare sistemi di IA clinica trasparenti, controllabili e privi di bias. Qui entra in gioco AIACT (Artificial Intelligence Assessment: Classifying Transparent System), uno dei progetti più interessanti per chi, in Italia, vuole portare l’IA in corsia senza creare pazienti di serie A e pazienti di serie B.
In questo articolo – parte della serie “IA nella Sanità Italiana: Innovazione Clinica” – vediamo:
- perché i bias algoritmici sono un problema concreto per diagnosi, terapie e triage;
- che cosa propone il progetto AIACT e perché è allineato all’AI Act;
- come l’uso di dati sintetici può diventare un alleato per una sanità più equa e sicura;
- quali passi operativi possono fare oggi strutture sanitarie e fornitori.
Perché la sanità italiana ha bisogno di una IA “auditabile”
L’intelligenza artificiale è già entrata in molte aree della sanità italiana:
- diagnostica per immagini (radiologia, cardiologia, oncologia);
- telemedicina e monitoraggio remoto dei cronici;
- stratificazione del rischio e medicina predittiva;
- ottimizzazione dei posti letto e dei percorsi ospedalieri.
Il vantaggio è chiaro: più capacità di analisi, più velocità, meno errori ripetitivi. Nella pratica vuol dire referti radiologici prioritizzati meglio, controlli diabetologici mirati, meno accessi impropri al pronto soccorso.
La controparte? Se l’algoritmo è addestrato su dati incompleti, sbilanciati o poco rappresentativi, l’IA fa due cose pericolose:
- Consolida distorsioni presenti nei dati storici (per esempio, minor diagnosi precoce in alcuni gruppi di pazienti);
- Amplifica queste distorsioni, perché viene utilizzata su larga scala e spesso con un’aura di infallibilità.
Ecco perché nel 2025 parlare di IA trasparente e auditabile non è un tema teorico, ma una condizione per continuare a innovare senza violare i principi fondamentali del nostro SSN: equità, universalità, accesso imparziale alle cure.
Come l’IA migliora davvero diagnosi e organizzazione sanitaria
L’IA porta valore in sanità quando è progettata come strumento di supporto clinico, non come oracolo.
Applicazioni cliniche ad alto impatto
Gli ambiti in cui l’IA sta già cambiando la pratica clinica sono concreti:
- Diagnostica per immagini: algoritmi che segnalano con priorità esami sospetti (per esempio noduli polmonari o lesioni cerebrali), riducendo i tempi di risposta su casi critici.
- Medicina personalizzata: sistemi che combinano dati clinici, genomici e di stile di vita per suggerire terapie più adatte al singolo paziente.
- Telemonitoraggio: analisi continua di parametri vitali per pazienti cronici, con allerta automatica al centro servizi o al medico curante.
- Gestione ospedaliera: modelli predittivi per ricoveri, riammissioni, consumo di farmaci e di dispositivi.
Quando questi sistemi funzionano bene, gli effetti sono misurabili:
- riduzione dei ricoveri evitabili;
- uso più efficiente di letti, sale operatorie e personale;
- maggiore tempo clinico dedicato all’ascolto del paziente invece che al data entry.
Il ruolo del medico non scompare, cambia
Qui serve essere chiari: l’IA non sostituisce il giudizio clinico, ma ne cambia gli strumenti.
Due bias cognitivi però entrano facilmente in gioco:
- confirmation bias: il medico tende a dare più peso alle raccomandazioni che confermano il suo pensiero iniziale;
- automation bias: il clinico segue la raccomandazione dell’algoritmo anche quando i dati di contesto suggerirebbero prudenza.
Se ci aggiungiamo il rischio di bias di genere, etnici o socioeconomici incorporati nei dati, abbiamo un quadro chiaro:
un algoritmo opaco in sanità non è solo un problema tecnico, è un rischio per la sicurezza del paziente e per la legittimità dell’intera organizzazione.
Bias algoritmici: perché l’AI Act li considera ad alto rischio
L’AI Act europeo classifica i sistemi di IA in sanità come “ad alto rischio”. Questo, tradotto in pratica, significa obblighi stringenti su:
- qualità, rappresentatività e tracciabilità dei dati;
- documentazione tecnica e registro dei modelli;
- valutazione del rischio e monitoraggio post-deployment;
- trasparenza verso operatori sanitari e, quando opportuno, pazienti.
Il problema centrale sono i bias algoritmici, cioè distorsioni sistematiche nelle decisioni del modello. Nella pratica clinica possono portare a:
- sottostima del rischio per alcuni gruppi (per esempio donne con sintomi atipici di infarto);
- sovra-diagnosi o sovra-trattamento in altri gruppi;
- liste d’attesa e priorità di accesso distorte.
Clinical trial, dati reali e problema di rappresentatività
Gran parte dei modelli di IA clinica nasce da:
- dati di trial clinici spesso condotti su campioni non pienamente rappresentativi (per età, genere, origine geografica);
- real world data raccolti in strutture con determinate caratteristiche organizzative (ad esempio grandi ospedali del Nord, meno dati dal territorio o da aree interne).
Risultato:
- modelli molto precisi nel “contesto di origine”;
- performance peggiori, se non inaccettabili, in altri contesti.
Il progetto AIACT nasce proprio per creare metodi strutturati di riconoscimento, tracciamento e mitigazione dei bias nei modelli di IA applicati ai trial clinici e ai dati sanitari.
Che cosa fa davvero il progetto AIACT
AIACT non è solo un acronimo ben riuscito, ma una proposta operativa che interessa chiunque stia progettando IA in sanità: direzioni strategiche, CIO, responsabili di ricerca clinica, fornitori di soluzioni digitali.
Gli obiettivi chiave di AIACT
Il progetto lavora su tre assi fondamentali:
- Riconoscere i bias nei dati e nei modelli, attraverso analisi statistiche mirate e audit indipendenti;
- Tracciare in modo trasparente scelte progettuali, dataset utilizzati, versioni dei modelli, risultati dei test;
- Limitare e mitigare i bias, adottando strategie tecniche e organizzative (dal riequilibrio dei dati all’uso di dati sintetici).
Questo approccio è perfettamente coerente con la logica AI Act, che si basa su un framework di rischio articolato su tre momenti:
- Input: dati completi, rappresentativi e documentati;
- Processo: algoritmi ispezionabili, con log, audit e possibilità di intervento umano;
- Output: analisi delle decisioni differenziate per gruppi di pazienti, con verifica di equità.
Un aspetto spesso sottovalutato: formazione e governance
L’analisi AIACT mette anche in luce un punto che molti progetti trascurano:
senza governance e formazione, il rischio non è gestibile.
Due elementi pratici che ospedali e ASL dovrebbero mettere a piano già nel 2025:
- Comitati multidisciplinari IA (clinici, data scientist, legali, esperti di privacy e bioetica) che valutano i sistemi ad alto rischio;
- Formazione mirata per medici, infermieri, tecnici e amministrativi sull’uso critico degli strumenti di IA e sul riconoscimento dei bias.
Dati sintetici: la mossa intelligente contro i bias (e a favore del GDPR)
Il contributo forse più interessante di AIACT è l’uso sistematico dei dati sintetici per ridurre bias e rischi privacy.
Che cosa sono e perché servono
I dati sintetici sono dati clinici generati artificialmente attraverso modelli matematici e tecniche come:
- Generative Adversarial Networks (GAN);
- modelli probabilistici bayesiani;
- altri modelli generativi in grado di simulare la distribuzione statistica dei dati reali.
Due aspetti sono fondamentali:
- Riproducono la struttura e le relazioni dei dati clinici veri;
- Non contengono dati identificabili di pazienti reali.
Perché sono così utili per la sanità italiana?
- permettono di ampliare e riequilibrare dataset limitati (per età, genere, area geografica), mitigando i bias;
- agevolano la condivisione di dati tra strutture e con fornitori, riducendo il rischio di violazioni privacy;
- si integrano bene con le esigenze di conformità al GDPR e all’AI Act.
Attenzione: non basta “premere un pulsante”
I dati sintetici non sono una bacchetta magica. Per essere davvero una difesa efficace contro i bias servono:
- criteri rigorosi di generazione (modelli scelti e calibrati con competenza);
- validazione strutturata rispetto ai dataset reali (per evitare di introdurre nuovi artefatti);
- controlli di qualità continui durante l’evoluzione del modello.
In pratica, una struttura sanitaria che vuole adottare IA etica e sicura può:
- usare i dati reali per costruire un modello iniziale;
- generare dati sintetici per riequilibrare categorie sottorappresentate;
- validare il modello finale su dataset misti (reali + sintetici), con analisi separate per sottogruppi di pazienti;
- monitorare in produzione la performance e intervenire dove emergono differenze ingiustificate.
Questo approccio è particolarmente utile per progetti di medicina personalizzata, telemedicina territoriale e diagnostica per immagini in contesti con minor disponibilità di casi (per esempio malattie rare o ospedali più piccoli).
Cosa può fare oggi una struttura sanitaria italiana
Per trasformare l’IA in un vantaggio competitivo e clinico, senza scivolare nei bias algoritmici, una direzione sanitaria può partire da azioni molto concrete.
1. Mappare i casi d’uso di IA “ad alto rischio”
- elencare tutti i sistemi di IA già in uso o in valutazione (diagnostica, triage, telemonitoraggio, stratificazione del rischio);
- classificarli secondo l’AI Act come alto rischio o meno;
- definire per ciascuno un referente clinico e un referente data/IT.
2. Verificare dati e modelli con una logica AIACT
- chiedere a fornitori e team interni documentazione su dataset di training, test e validazione;
- verificare la rappresentatività per genere, età, area geografica, patologie principali;
- introdurre audit periodici su output differenziati per gruppi di pazienti.
3. Sperimentare l’uso di dati sintetici in sicurezza
- avviare progetti pilota con dati sintetici per ricerca, test di modelli, formazione;
- definire policy interne su chi può generare, usare e valutare dati sintetici;
- integrare questo approccio nella documentazione AI Act e nelle valutazioni di impatto privacy.
4. Comunicare chiaramente a clinici e pazienti
- spiegare ai professionisti sanitari quando e come l’IA entra nel processo decisionale;
- predisporre materiali semplici per i pazienti sui limiti e sui benefici di questi strumenti;
- ribadire che il giudizio clinico umano resta centrale.
Verso una IA clinica trasparente, equa e tutta italiana
La vera innovazione, in sanità, non è usare l’IA a tutti i costi. È usarla in modo responsabile, sapendo spiegare perché un modello prende una decisione, chi lo controlla, come reagisce l’organizzazione quando qualcosa non torna.
Progetti come AIACT indicano una strada concreta:
- modelli di IA per la sanità italiana trasparenti, auditabili e allineati all’AI Act;
- uso intelligente dei dati sintetici per ridurre bias e rischi privacy;
- governance multidisciplinare che mette davvero al centro la sicurezza e il benessere del paziente.
Per ospedali, ASL e fornitori che vogliono posizionarsi in prima linea sull’innovazione clinica, questo è il momento di strutturare seriamente il proprio approccio all’IA: non solo progetti pilota, ma un vero percorso di sanità digitale equa, affidabile e misurabile.
La domanda ora è semplice: la tua organizzazione sta usando l’IA solo come tecnologia di moda, o sta costruendo le basi per una sanità italiana che usa l’intelligenza artificiale senza perdere di vista giustizia ed equità?