Art. 9 GDPR e IA: cosa cambia davvero per i dati sensibili

IA nel Settore Energetico Italiano: Transizione VerdeBy 3L3C

Il Digital Omnibus cambia l’art. 9 GDPR e introduce una deroga per l’IA basata sullo “sforzo sproporzionato”. Ecco cosa significa davvero per dati sensibili e imprese.

GDPRdati sensibiliintelligenza artificialeDigital OmnibusAI Actretailprivacy
Share:

Art. 9 GDPR e IA: cosa cambia davvero per i dati sensibili

Nel 2024 oltre il 60% dei retailer italiani ha avviato almeno un progetto di intelligenza artificiale, ma pochissime aziende hanno chiaro cosa possono fare – legalmente – con i dati sensibili dentro modelli di IA complessi. Il risultato? Progetti rallentati dai legali, fornitori in disaccordo fra loro, Data Protection Officer in trincea.

Ecco il punto: il pacchetto Digital Omnibus riscrive una parte cruciale dell’art. 9 GDPR e introduce una nuova deroga, la famosa lettera k), pensata proprio per l’intelligenza artificiale. Tradotto in pratica: usare dati sensibili nei sistemi di IA potrebbe diventare più facile, ma anche più rischioso sul piano dei diritti fondamentali.

Per chi lavora in azienda – soprattutto in settori data‑intensive come retail, banking, assicurazioni, sanità, GDO – questa riforma non è teoria giuridica. Tocca direttamente la progettazione dei modelli, la contrattualistica con i fornitori e il modo in cui si fanno DPIA e governance dei dati.

In questo articolo vediamo, con un taglio operativo:

  • cosa cambia nell’art. 9 GDPR con il Digital Omnibus
  • come funziona davvero il criterio dello “sforzo sproporzionato”
  • chi decide se la rimozione dei dati sensibili è sproporzionata
  • quali scelte concrete devono fare oggi le imprese che sviluppano o usano IA

1. Che cosa cambia nell’art. 9 GDPR con il Digital Omnibus

La riforma proposta dal Digital Omnibus fa due mosse forti sull’art. 9 GDPR:

  1. Restringe la tutela rafforzata ai soli dati che rivelano direttamente le categorie protette (origine razziale, opinioni politiche, religione, salute, vita sessuale, orientamento sessuale, dati genetici e biometrici).
  2. Aggiunge una deroga specifica per l’IA – la lettera k) – che consente l’uso di dati sensibili se la loro rimozione comporta uno sforzo sproporzionato, a fronte di adeguate misure tecniche e organizzative.

Questo sposta l’asse del GDPR:

  • da una logica di indispensabilità del dato (“posso trattare il dato sensibile solo se è essenziale allo scopo”)
  • a una logica di funzionalità del modello (“posso tenerlo se toglierlo spezzerebbe il modello o richiederebbe re‑ingegnerizzazioni eccessive”).

Per chi sviluppa IA significa che l’AI training con dataset complessi diventa più facilmente giustificabile. Ma allo stesso tempo si riduce la “granularità” della protezione: molte inferenze sensibili (es. profilazioni che deducono l’orientamento politico da comportamenti di acquisto) rischiano di restare fuori dal perimetro più protetto.

2. Lo “sforzo sproporzionato”: il vero campo di battaglia

La domanda decisiva è semplice: chi decide se la rimozione dei dati sensibili è sproporzionata?

La bozza non lo dice esplicitamente, ma il sistema che ne esce è a tre livelli:

2.1 Il ruolo centrale del titolare del trattamento

Il primo giudizio sulla sproporzione è in mano al titolare del trattamento, cioè all’azienda che decide finalità e mezzi del trattamento.

In pratica, il titolare deve:

  • descrivere la sproporzione nella DPIA (che il Digital Omnibus vuole rendere più uniforme a livello UE)
  • documentare nel fascicolo tecnico del sistema di IA come previsto dall’AI Act
  • dimostrare perché rimuovere i dati particolari richiederebbe una re‑ingegnerizzazione eccessiva o comprometterebbe l’accuratezza/affidabilità del modello.

Per un retailer italiano questo può significare, ad esempio:

  • mostrare che un modello di raccomandazione prodotti, addestrato su miliardi di eventi, contiene tracce di dati “sensibili” difficili da separare (es. preferenze che rivelano indirettamente convinzioni religiose)
  • motivare perché un “clean‑up” completo romperebbe la struttura statistica del modello e richiederebbe mesi di re‑training con costi milionari.

Ma questo non basta: senza una governance dei dati matura, appellarsi alla sproporzione diventa poco credibile.

2.2 I fornitori di modelli: sproporzione “a monte”

Il secondo livello riguarda i fornitori di modelli di IA, in particolare chi vende:

  • modelli di base (foundation models)
  • componenti pre‑addestrate
  • servizi di IA “as a Service”.

Qui la valutazione della sproporzione nasce in fase di progettazione del modello. Il fornitore può dire al cliente:

  • quali dataset sono stati usati
  • quali categorie particolari sono potenzialmente presenti
  • perché una bonifica completa sarebbe tecnicamente o economicamente sproporzionata.

Per l’azienda cliente questo si traduce in:

  • documenti contrattuali (allegati tecnici, report di audit, schede di conformità)
  • dichiarazioni sulla impossibilità/praticità limitata di rimuovere certe categorie di dati
  • margini ridotti di intervento sul “cuore” del modello.

La responsabilità giuridica del titolare resta, ma la capacità di modificare davvero l’architettura resta spesso in mano al fornitore.

2.3 Commissione ed EDPB: verso criteri più uniformi

Terzo livello: Commissione europea ed EDPB (Comitato europeo per la protezione dei dati).

Il Digital Omnibus assegna loro un ruolo forte nel:

  • definire modelli europei di DPIA
  • stilare elenchi di trattamenti soggetti a valutazione d’impatto
  • emanare linee guida tecniche su proporzione e sproporzione.

Effetto pratico: nel tempo, lo “sforzo sproporzionato” tenderà a trasformarsi in un concetto meno discrezionale, con:

  • benchmark di settore (es. cosa è sproporzionato per una PMI retail rispetto a una big tech)
  • aspettative standard sui livelli di purificazione e filtraggio dati
  • meno spazio per interpretazioni “di comodo”.

3. Come valutare davvero la sproporzione nei progetti di IA

Lo “sforzo sproporzionato” non è un numero magico. È l’esito di un processo che incrocia tre dimensioni: struttura del modello, costi di re‑ingegnerizzazione e capacità tecnica/organizzativa del titolare.

3.1 Struttura del modello e integrità funzionale

Nei modelli di IA addestrati su basi dati enormi, i dati particolari non stanno ordinatamente in una colonna del database. Sono dispersi nella rete di correlazioni.

Esempio nel retail:

  • dataset: cronologia acquisti, click online, programmi fedeltà
  • il modello inferisce indirettamente lo stato di salute (acquisti di farmaci OTC, integratori, prodotti senza glutine) o convinzioni religiose (prodotti halal/kosher, calendario festività).

Rimuovere quei dati significa, in concreto:

  • rimuovere intere feature
  • ri‑addestrare modelli complessi
  • rischiare di abbassare gli indicatori di accuratezza e affidabilità richiesti dall’AI Act.

L’ordinamento inizia a riconoscere che l’integrità funzionale del modello è un valore rilevante nel bilanciamento: se togli i nodi sensibili e il modello collassa, il tema della sproporzione diventa reale.

3.2 Re‑ingegnerizzazione: quando il costo diventa parametro giuridico

La bozza del Digital Omnibus trasforma il costo tecnico in parametro giuridico: la sproporzione c’è quando la rimozione dei dati particolari richiede una ricostruzione profonda del sistema.

In pratica questo può includere:

  • rifare l’intera pipeline dati (raccolta, pulizia, labeling)
  • ricalibrare pesi e architetture interne del modello
  • riprogettare i sistemi di monitoraggio e validazione
  • fermare o rallentare servizi critici (es. motore di raccomandazione in un e‑commerce nazionale).

Non basta però dire “costa troppo”: il costo diventa rilevante solo se correlato alla complessità reale del modello e alla proporzione fra investimento richiesto e finalità del trattamento.

3.3 Governance dei dati: dalla minimizzazione al “costo della purificazione”

Qui c’è lo spostamento culturale più delicato.

Il GDPR nasce con il principio di minimizzazione: raccogli il meno possibile, specialmente se è sensibile. La nuova lettera k) rischia di spostare il focus sul costo della purificazione:

“Tengo i dati sensibili se ripulire tutto sarebbe troppo caro o tecnicamente difficile”.

Per evitare che questa diventi una “licenza estesa” all’uso di dati sensibili nel training dei modelli, le aziende devono alzare l’asticella della governance.

Un titolare potrà invocare credibilmente la sproporzione solo se può dimostrare di aver:

  • evitato a monte la raccolta non necessaria di dati particolari
  • implementato filtri e strumenti per riconoscere categorie sensibili nei flussi
  • attivato tecniche di anonimizzazione/pseudonimizzazione dove compatibili con il modello
  • documentato in modo puntuale i tentativi di rimozione o riduzione.

Senza questo, la sproporzione rischia di essere letta come semplice convenienza economica, non come limite tecnico inevitabile.

4. Cosa devono fare oggi le imprese che usano IA

Per trasformare il nuovo art. 9 in un vantaggio competitivo e non in un rischio legale, servono alcune scelte nette.

4.1 Aggiornare DPIA e policy interne

Le aziende dovrebbero già ora:

  • rivedere i modelli di DPIA per includere un capitolo specifico sulla valutazione della sproporzione
  • definire criteri interni chiari: quando possiamo dire che un intervento è sproporzionato? Chi firma questa valutazione?
  • collegare DPIA, documentazione AI Act e registri dei trattamenti in modo coerente.

Per un gruppo retail, questo può voler dire creare template standard per i progetti IA (previsione domanda, dynamic pricing, churn prediction) con sezioni dedicate a:

  • categorie particolari potenzialmente in gioco
  • opzioni tecniche di filtraggio
  • impatti stimati di un eventuale re‑training “pulito”.

4.2 Gestire meglio i rapporti con i fornitori di IA

Chi compra modelli o servizi di IA deve alzare la qualità delle domande.

Nei contratti con i fornitori è fondamentale chiedere:

  • quali dataset sono stati usati per l’addestramento
  • se sono presenti dati che rivelano direttamente categorie dell’art. 9
  • quali tentativi di purificazione sono stati fatti
  • con quali motivazioni tecniche si invoca, eventualmente, la sproporzione.

E poi tradurre il tutto in:

  • clausole chiare su ruoli e responsabilità
  • diritto di audit sui processi di training
  • impegni di re‑ingegnerizzazione in caso di cambi normativi o linee guida più restrittive.

4.3 “Esigibilità tecnica” come bussola etica e legale

Una lettura equilibrata della nuova lettera k) dovrebbe legare l’accesso alla deroga a un principio di esigibilità tecnica:

  • puoi invocare la sproporzione solo se dimostri un livello avanzato di competenza tecnica nella gestione dei dataset;
  • e solo se il modello integra misure di contenimento efficaci per evitare usi impropri dei residui sensibili.

Questo approccio – in linea con la tradizione costituzionale europea e con l’art. 8 della Carta – porta le aziende a fare una scelta strategica: investire in data governance e competenze IA non è più solo un tema di efficienza, ma la condizione per poter accedere legittimamente agli spazi di flessibilità che il Digital Omnibus apre.

5. Perché questo passaggio è cruciale per il retail italiano

Nella campagna “IA nel Retail Italiano: Commercio Intelligente”, l’uso di dati sensibili è meno lontano di quanto sembri.

Alcuni casi tipici:

  • programmi fedeltà che intrecciano acquisti di farmacia, alimentare, prodotti religiosi
  • sistemi di analisi del traffico in store con biometria (video analytics, heatmap)
  • chatbot e assistenti virtuali che raccolgono informazioni sulla salute o sulle abitudini personali.

Se il nuovo art. 9 sarà approvato nella forma proposta, i retailer avranno davanti due strade:

  • usare la deroga come scorciatoia per spingere modelli “più predittivi”, assumendo rischi reputazionali e regolatori rilevanti;
  • oppure sfruttarla come strumento selettivo, accessibile solo dopo aver costruito processi solidi, controllabili, difendibili davanti a un’autorità di controllo o a un giudice.

Personalmente, credo che la seconda strada pagherà di più nel medio periodo: i progetti IA che reggono anche alla prova costituzionale sono quelli che sopravvivono, scalano e generano davvero valore.


Chi sta progettando oggi sistemi di IA nel retail – pricing dinamico, personalizzazione dell’offerta, customer service automatizzato – non può permettersi di ignorare l’evoluzione dell’art. 9 GDPR.

Questo è il momento di:

  • mappare dove entrano (anche indirettamente) dati sensibili nei vostri modelli
  • rivedere DPIA, contratti e policy
  • definire un criterio aziendale chiaro di cosa significhi davvero “sforzo sproporzionato”.

La domanda da farsi non è solo “posso usare questi dati?”, ma “posso dimostrare, in modo trasparente e tecnicamente fondato, perché li sto usando così?”. Chi saprà rispondere ora, avrà un vantaggio netto quando le nuove regole diventeranno realtà.

🇮🇹 Art. 9 GDPR e IA: cosa cambia davvero per i dati sensibili - Italy | 3L3C