governance ai

Governance AI e protezione dati: la roadmap EDPS tra accountability e complessità algoritmica

L’11 novembre 2025 segna una svolta nell’approccio europeo alla governance AI e alla protezione dei dati: il Garante europeo della protezione dei dati (EDPS) ha pubblicato una guida operativa per il risk management che, per la prima volta, traduce i principi del GDPR in misure tecniche concrete per i sistemi di intelligenza artificiale. Non si tratta dell’ennesimo documento teorico, ma di un framework operativo basato sulla metodologia ISO 31000:2018 per la gestione dei rischi che affronta una delle contraddizioni più complesse della trasformazione digitale: come garantire i diritti fondamentali quando i sistemi che elaborano dati personali sono, per loro natura, opachi e probabilistici.

La guida si inserisce in un momento cruciale. Mentre il Regolamento UE 2024/1689 del 13 giugno 2024 definisce il perimetro normativo dell’intelligenza artificiale in Europa, rimane aperta la questione su come le organizzazioni possano effettivamente implementare controlli che rispettino il Regolamento 2018/1725 (EUDPR), equivalente del GDPR per le istituzioni UE. La distanza tra requisiti legali e fattibilità tecnica non è mai stata così evidente come nell’ambito dell’AI, dove concetti come “rettifica” o “cancellazione” dei dati personali si scontrano con l’architettura stessa delle reti neurali profonde.

L’illusione della neutralità algoritmica e la tassonomia dei bias

Il documento dell’EDPS parte da un presupposto raramente esplicitato con questa chiarezza: l’AI non è neutra. I sistemi di machine learning tendono ad amplificare i bias esistenti, incorporando nei loro parametri le distorsioni presenti nei dataset di addestramento. La guida va oltre questa constatazione, proponendo una tassonomia articolata delle fonti di bias che spazia dalla qualità dei dati (data quality bias) alla rappresentatività del campione (sampling bias), dall’architettura algoritmica (algorithmic bias) alle distorsioni interpretative degli analisti umani (interpretation bias).

L’approccio è pragmatico e richiede un sistema di gestione che garantisca applicazione e conformità: l’EDPS non chiede l’impossibile – l’eliminazione totale del bias – ma richiede alle istituzioni di identificarlo, misurarlo e documentare gli sforzi di mitigazione. È un cambio di paradigma rispetto alla compliance formale: non basta dimostrare di aver scelto il fornitore “giusto” o di aver inserito clausole contrattuali appropriate. Serve una comprensione tecnica profonda di come il sistema funziona, quali sono i suoi failure mode, dove si annidano i rischi per i diritti delle persone.

La tensione tra performance e data minimisation nel machine learning

Una delle questioni più delicate riguarda il principio di minimizzazione dei dati nel contesto della governance AI e della protezione dati. I modelli di machine learning, per loro natura, traggono beneficio da grandi quantità di dati: più esempi vedono durante l’addestramento, migliore è – in teoria – la loro capacità di generalizzazione. Ma il GDPR impone di processare solo dati adeguati e pertinenti, limitati a quanto necessario. Come si conciliano queste esigenze?

La guida suggerisce diverse strategie: dal data sampling (selezionare sottoinsiemi rappresentativi invece di utilizzare l’intero dataset) all’uso di dati sintetici, dall’anonimizzazione alla pseudonimizzazione. Ma ogni tecnica porta con sé trade-off complessi. I dati sintetici, per esempio, possono preservare la privacy ma rischiano di introdurre nuovi bias o di non catturare pattern marginali ma significativi. L’anonimizzazione, se mal implementata, può essere vulnerabile ad attacchi di re-identificazione, specialmente quando i modelli sono esposti tramite API pubbliche.

Emerge qui una delle tensioni fondamentali della governance AI e della protezione dati: la protezione dei dati non può essere un vincolo esterno aggiunto a posteriori, ma deve essere embedded nella progettazione stessa del sistema. Il concetto di privacy by design trova nell’AI la sua massima espressione – e la sua massima sfida operativa.

Explainability e interpretability: i prerequisiti dimenticati nella governance AI

Il documento dedica un’intera sezione a interpretability ed explainability, definendole come sine qua non – prerequisiti essenziali per qualsiasi altra forma di compliance. È una scelta significativa, in linea con gli strumenti di valutazione d’impatto dell’AI che permettono di identificare, analizzare e mitigare i rischi associati ai sistemi automatizzati.

Troppo spesso, la discussione sull’AI si concentra su metriche di performance (accuracy, precision, recall) trascurando la comprensibilità del sistema. Ma senza explainability, come può un’organizzazione verificare che il modello rispetti il principio di fairness? Come può identificare e correggere errori sistematici? Come può rispondere alle richieste dei data subject di comprendere le decisioni automatizzate che li riguardano?

La distinzione operata tra interpretability (la capacità di comprendere il funzionamento interno del modello) ed explainability (la capacità di spiegare specifiche decisioni) è particolarmente utile. Un modello può non essere interpretabile nella sua totalità – pensiamo ai transformer con miliardi di parametri – ma deve comunque essere possibile spiegare perché ha prodotto un determinato output per un determinato input. Tecniche come LIME per spiegazioni locali interpretabili o SHAP basato sui valori di Shapley vengono citate come esempi, ma il documento non nasconde che si tratta di approssimazioni, non di spiegazioni complete.

Il problema del machine unlearning e i diritti dei data subject

Tra i passaggi più interessanti della guida c’è quello dedicato ai diritti dei data subject, in particolare al diritto di rettifica e cancellazione. Come si “dimentica” un dato che è stato incorporato nei pesi di una rete neurale addestrata su milioni di esempi? Il documento introduce il concetto di machine unlearning – la capacità di rimuovere selettivamente l’influenza di specifici punti dati dal modello.

Ma la guida non nasconde le difficoltà: l’unlearning “esatto” richiederebbe di riaddestrare il modello da zero escludendo i dati da rimuovere, un processo computazionalmente proibitivo per modelli di grandi dimensioni. L’unlearning “approssimato”, invece, introduce incertezze sulla completezza della rimozione. È un’area di ricerca attiva, ma con soluzioni ancora immature per il deployment in produzione.

In alternativa, viene suggerito l’output filtering: intercettare e bloccare in tempo reale le risposte del modello che potrebbero contenere dati personali. È una soluzione più praticabile, ma che sposta il problema: richiede sistemi di rilevamento affidabili e introduce latenza nelle risposte. Inoltre, non risolve il problema alla radice: i dati restano nel modello, semplicemente vengono oscurati nell’output.

La supply chain dell’AI e il procurement consapevole nella governance AI e protezione dati

Un aspetto spesso sottovalutato, ma al quale la guida dedica attenzione significativa, è la fase di procurement. La maggior parte delle organizzazioni non sviluppa i propri modelli di AI da zero, ma integra soluzioni di terze parti, spesso tramite API. Questo crea una catena di responsabilità complessa dove il data controller (l’istituzione UE) ha visibilità limitata su come i dati vengono effettivamente processati.

La guida propone una checklist dettagliata di informazioni da richiedere ai fornitori: non solo specifiche funzionali, ma documentazione completa sui dataset di addestramento, sulle metriche di fairness e accuracy misurate su diverse demographic, sui processi di quality assurance, sulle misure di sicurezza implementate. È un approccio esigente, che potrebbe incontrare resistenze da parte di fornitori abituati a considerare questi aspetti come “segreti commerciali”.

Ma è proprio qui che si gioca la partita della governance AI e della protezione dati: senza trasparenza sulla supply chain, il principio di accountability rimane una dichiarazione d’intenti. L’EDPS sta sostanzialmente dicendo alle istituzioni UE: non potete delegare la compliance, anche quando procurate tecnologie sviluppate altrove. Un principio rafforzato anche dalla recente Legge 132/2025 che disciplina sviluppo e uso dell’AI, entrata in vigore il 10 ottobre 2025, che ha introdotto obblighi specifici per l’uso dell’AI nel contesto nazionale.

Oltre la checklist: verso una cultura della risk literacy

Ciò che distingue questo documento da molte altre linee guida è il rifiuto della compliance meccanica. Non si tratta di spuntare caselle, ma di sviluppare una capacità organizzativa di risk assessment specifica per l’AI. Il framework ISO 31000 viene adottato come base metodologica, ma viene esplicitato che ogni organizzazione dovrà adattarlo al proprio contesto, alle proprie use case, ai propri risk appetite.

Le metriche proposte negli annex – da BLEU e ROUGE per il NLP, a ImageNet e COCO per la computer vision, fino a MMLU per la comprensione multimodale del linguaggio – non sono prescrittive ma esemplificative. L’invito è a sviluppare una “risk literacy” che permetta di navigare la complessità dell’AI senza cadere né nell’entusiasmo acritico né nel rifiuto preconcetto.

L’approccio europeo si distingue per il tentativo di bilanciare innovazione e protezione attraverso un framework basato sul rischio che potrebbe influenzare gli standard globali, sebbene evidenze preliminari del 2025 mostrino un’adozione internazionale più limitata del previsto rispetto all’atteso “Effetto Bruxelles”.

Zone d’ombra e domande aperte nella governance AI

Nonostante il rigore e la completezza, il documento lascia inevitabilmente alcune questioni in sospeso. La prima riguarda l’enforcement: quali saranno le conseguenze per le istituzioni che non riusciranno a implementare questi controlli? Il GDPR prevede sanzioni significative, ma applicarle in un contesto dove la “conformità perfetta” è probabilmente irraggiungibile richiede una dose di pragmatismo che deve ancora essere calibrata.

La seconda questione riguarda l’evoluzione tecnologica: il documento è datato novembre 2025, ma i sistemi di AI si evolvono con una velocità che rende qualsiasi framework rapidamente obsoleto. Come mantenere rilevante questa guida quando emergeranno nuove architetture, nuove modalità di addestramento, nuovi vettori di attacco? La sfida è creare framework sufficientemente robusti attraverso norme ISO specifiche che resistano al cambiamento tecnologico ma rimangano abbastanza flessibili da adattarsi all’innovazione.

Infine, c’è la questione della competenza: implementare questi controlli richiede team interdisciplinari con competenze profonde sia in machine learning che in data protection law. Quante organizzazioni dispongono realmente di queste risorse? Il rischio è che la guida diventi un documento aspirazionale, consultato ma non implementato, o implementato in modo superficiale per pura facciata.

Un cambio di paradigma necessario per la governance AI e la protezione dati

Nonostante questi interrogativi, la guida dell’EDPS rappresenta un passo avanti significativo. Per la prima volta, un’autorità di controllo europea tenta di colmare il gap tra principi legali e implementazione tecnica nell’ambito dell’AI, senza rifugiarsi in astrazioni né in tecnicismi inaccessibili.

Il messaggio di fondo è chiaro: l’adozione dell’AI nelle istituzioni pubbliche europee non può essere guidata solo da considerazioni di efficienza o innovazione. Deve essere un processo consapevole, dove ogni scelta tecnologica viene valutata anche – e soprattutto – in termini di impatto sui diritti fondamentali delle persone. Non è una posizione luddista o anti-tecnologica, ma una riaffermazione dei valori che dovrebbero caratterizzare l’azione pubblica in una democrazia liberale.

Resta da vedere se questo approccio rigoroso alla governance AI e alla protezione dei dati diventerà lo standard anche al di fuori delle istituzioni UE, influenzando il mercato più ampio dell’AI. Le dinamiche competitive potrebbero spingere le organizzazioni a privilegiare velocità e performance rispetto alla compliance approfondita. Ma forse è proprio questo il test decisivo: riuscirà l’Europa a dimostrare che è possibile sviluppare e utilizzare l’AI in modo potente ed efficace senza sacrificare la protezione dei dati personali?

La risposta a questa domanda definirà non solo il futuro della governance tecnologica, ma l’identità stessa del progetto europeo nell’era digitale. Come evidenziato nell’analisi sulla ridefinizione del concetto di sicurezza nazionale nell’era AI, la sfida principale consiste nel mantenere un controllo razionale e democratico su uno sviluppo tecnologico di portata epocale, preservando i valori fondamentali delle società libere attraverso una governance multilivello che bilanci innovazione e protezione.

Condividi sui Social Network:

Ultimi Articoli

ISCRIVITI ALLA NEWSLETTER DI ICT SECURITY MAGAZINE

Una volta al mese riceverai gratuitamente la rassegna dei migliori articoli di ICT Security Magazine

Rispettiamo totalmente la tua privacy, non cederemo i tuoi dati a nessuno e, soprattutto, non ti invieremo spam o continue offerte, ma solo email di aggiornamento.
Privacy Policy