Controlli e certificazioni in Unione Europea: AI Act, NIS2 e gestione dei rischi
Questo articolo rappresenta l’approfondimento conclusivo di una serie dedicata agli “Standard di gestione dei dati dei dipendenti dopo l’AI ACT”. L’analisi si concentra sul quadro normativo europeo post-AI Act, esplorando come i principi della cybersecurity si integrino con le procedure di controllo e monitoraggio per garantire la protezione dei dati dei lavoratori nell’era dell’intelligenza artificiale. Il documento esamina il sistema di governance italiana, le certificazioni ISO, la direttiva NIS2 e le implicazioni pratiche per aziende e pubbliche amministrazioni che implementano sistemi di algorithmic management.
Certificazioni europee e cybersecurity per un’intelligenza artificiale affidabile e conforme
L’intelligenza artificiale è senza alcun dubbio uno strumento dal potenziale rivoluzionario. Non serve sottolinearlo di nuovo[1] ma la situazione attuale richiede di risolvere il problema dell’inserimento di questa tecnologia all’interno del mercato europeo e del suo ecosistema fatto di aziende nazionali, internazionali, pubbliche amministrazioni e normative. Il nostro ordinamento giuridico è preparato con un complesso sistema di principi e normative che servono proprio a risolvere in modo preciso il bilanciamento dei vari interessi.
Tuttavia, se questo fosse sufficiente ogni problema quotidiano si potrebbe risolvere semplicemente con l’emanazione di una legge dopo un adeguato dibattito parlamentare. Al contrario, il mondo reale ha delle necessità concrete differenti che esulano dai principi legali e dagli strumenti normativi, che restano comunque il fondamento di tutto il sistema. Il passo successivo è comprendere quali problemi sono emersi fin’ora e come si è tentato di risolverli fin’ora. L’intelligenza artificiale rappresenta una delle più rilevanti innovazioni tecnologiche dell’era contemporanea, con un potenziale di trasformazione profonda nei settori economici, pubblici e sociali.
Tuttavia, uno dei principali ostacoli alla sua adozione su larga scala è costituito dalla diffusa mancanza di fiducia nei processi decisionali automatizzati. Questo ‘problema zero’ è dovuto a diversi fattori, tra cui la percezione di opacità degli algoritmi, il rischio di bias nei modelli di IA, la difficoltà di interpretare le decisioni generate da sistemi complessi e la preoccupazione per il loro impatto etico e sociale. Anche la “Strategia Italiana per l’Intelligenza Artificiale 2024-2026[2]” riconosce questa problematica come centrale e propone un approccio sistemico per affrontarla, promuovendo lo sviluppo di soluzioni trasparenti, affidabili e conformi ai principi etici.
Costruire un clima di fiducia nei confronti di questa tecnologia è la partita fondamentale per l’Unione Europea e per l’Italia, che ovviamente è completamente calata all’interno del sistema comunitario e del mercato unico e quindi non può immaginare di poter trovare una soluzione in isolamento. Per questo negli ultimi anni si sono andati a costituire una serie di strumenti che vadano a risolvere il ‘problema zero’ insieme a tutti gli altri problemi che sono emersi attorno all’IA. Anche all’interno dello stesso AI ACT troviamo affermazioni di principio che mirano allo sviluppo di un’intelligenza artificiale “etica ed affidabile[3]”.
L’approccio che si rivela essere comprensivo dei vari problemi in gioco è quello della cybersecurity, ovvero vedere l’implementazione di questa tecnologia attraverso la lente del risk-management. Questo approccio non solo permette di far emergere in modo non paralizzante le varie minacce, ma contribuisce alla risoluzione del ‘problema zero’. Non stupisce, in effetti, che in Italia questo processo si basi sulla trazione delle due agenzie governative di questo settore, ovvero l’Agenzia per l’Italia Digitale (AGID) e l’Agenzia della Cybersicurezza Nazionale (ACN). Nonostante questa sia scelta sia al centro di un dibattito, che vedremo più avanti in questa dissertazione, in realtà questa scelta è in linea con altri numerosi paesi membri[4].
Per arrivare a comprendere i meccanismi di controllo dell’ultimo regolamento europeo sull’intelligenza artificiale, è fondamentale iniziare delineando i principi di cybersecurity su cui poggia il quadro europeo. La governance dell’IA deve necessariamente integrarsi con un quadro di cybersicurezza perché la protezione dei dati, la resilienza dei sistemi e la minimizzazione delle minacce e delle vulnerabilità costituiscono la base di un ecosistema digitale affidabile e sicuro.
Questo sistema è costruito a partire da criteri di gestione del rischio rigorosi comprendenti di valutazioni ex-ante e obblighi specifici che devono essere soddisfatti sia da sviluppatori sia dagli utenti, che nel caso del diritto del lavoro sono l’azienda o la pubblica amministrazione che implementano i sistemi di algorithmic management. L’integrazione di tali misure di controllo mira a prevenire situazioni che potrebbero causare abusi o malfunzionamenti di sistemi che potrebbero compromettere la sicurezza dei lavoratori, oltre a quella delle infrastrutture critiche.
In quest’ottica, il regolamento sull’IA si inserisce in un più ampio processo di armonizzazione normativa, in cui la cybersecurity rappresenta non solo un aspetto tecnico, ma un vero e proprio principio fondamentale per assicurare lo sviluppo di un’intelligenza artificiale affidabile, resiliente e conforme ai valori essenziali dell’Unione Europea.
I principi della cybersecurity nella regolamentazione europea
La cybersecurity non è semplicemente un insieme di best practices (pratiche migliori o consolidate) mirate a combattere gli hacker, come magari può emergere dalla sua rappresentazione in film e serie TV. La cybersecurity è invece un paradigma culturale che mette insieme “metodologie e tecnologie atte a garantire la confidenzialità, l’integrità e accessibilità delle informazioni”[5]. Per questo è possibile ritrovare dei suoi principi anche all’interno dei regolamenti europei sulla Privacy e, in particolar modo, sull’intelligenza artificiale.
Questo approccio però ha una sua storia oramai decennale, che non c’è lo spazio per attraversare in questa dissertazione; quello che ci interessa è definire questo approccio come la tutela di sei caratteristiche, note come Esade Parkeriana[6], che sono: confidenzialità, integrità, accessibilità, autenticità, utilità e possesso (o controllo). Queste sei caratteristiche sono quelle che durante l’evoluzione della tecnologia informatica si sono rese necessarie da tutelare e valutare. I data breach possono essere definiti anche come la corruzione di questi valori.
Al contrario di quanto si possa pensare, non ci si può approcciare pensando di portare il rischio allo zero. Invece, un approccio basato sulla sicurezza mira a quantificare il rischio. Questo permette di valutare l’efficacia delle misure preventive e anche di misurare un altro parametro di un’organizzazione: la resilienza. La resilienza è un termine che deriva dalla scienza dei materiali e serve a descrivere la capacità di un materiale di assorbire l’impatto di una forza senza rompersi; questo concetto applicato alla cybersecurity si traduce nella capacità del sistema di continuare a funzionare nonostante attacchi, minacce o altre criticità che si presenteranno[7].
È fondamentale partire dal concetto di resilienza perché ci permette di introdurre uno dei principi che emergono da questo approccio – e che appunto ritroviamo anche in quello dell’Unione Europea – in cui le procedure e gli standard richiesti sono concreti e concretamente definibili. Senza di questo, ci si dovrebbe istintivamente porre l’obbiettivo di azzerare, e non minimizzare, la possibilità di incidenti. Un obiettivo del genere è impossibile nella vita vera e porterebbe al primo episodio a frantumare la fiducia nella procedura, andando quindi ad amplificare il ‘problema zero’ dell’implementazione dell’IA.
Questo principio della cultura della cybersecurity è riconoscibile all’interno dell’ordinamento comunitario, dove rappresenta un vero e proprio punto di partenza per la protezione delle infrastrutture digitali e la tutela dei diritti fondamentali. L’Unione Europea ha adottato un approccio normativo basato sulla valutazione e gestione del rischio, noto come risk-based approach, che costituisce il primo passo dell’AI Act e dell’iter normativo dietro a questo regolamento.
Questo modello prevede che l’intensità dei controlli e degli obblighi di conformità sia proporzionata al livello di rischio che un sistema di IA può comportare per la sicurezza, la privacy e i diritti dei cittadini, a partire dalla finalità per cui è adottata e dal contesto in cui viene applicata. Di conseguenza, i sistemi di IA classificati come ad alto rischio sono soggetti a requisiti più stringenti in termini di trasparenza, affidabilità e monitoraggio continuo. Tale approccio si allinea alla cultura della cybersecurity già consolidata nel diritto europeo, promuovendo una gestione pro-attiva delle minacce informatiche e garantendo un equilibrio tra innovazione tecnologica e protezione degli utenti.
Possiamo verificare la serietà con cui il regolatore europeo prende questo approccio andando a sottolineare alcuni dettagli rivelatori. Sicuramente il primo che possiamo citare è l’attenzione data a mantenere aggiornate le classificazioni del rischio, che vanno riviste tramite una relazione almeno annuale. Anche se al momento questo obbligo tocca solo le tecnologie che riguardano i dati biometrici e i dati “basati sulla biometria”[8], che risultano l’area più controversa e sensibile dello sviluppo di queste tecnologie, è chiaro che l’approccio non è quello di una classificazione proforma con il solo obbiettivo di organizzare diversi livelli di restrizioni; invece, l’approccio risk-based è uno strumento per dissipare possibili dubbi e deve essere soggetto a revisioni affinchè non perda di efficacia[9].
Un altro principio della cybersecurity che possiamo ritrovare come principio normativo dell’IA nel mercato europeo, connesso sempre alla mitigazione del rischio, è invece quello di risk-assessment e risk-prevention. Cioè, dopo aver accuratemente valutato il livello di rischio e di attenzione – avendo messo quindi il concetto di rischio al centro della regolamentazione – il passo successivo è quello di analizzare concretamente quali sono le possibili minacce e quali sono le procedure da implementare per tenerli sotto controllo. Concretamente, ciò si traduce nell’obbligo della costruzione di un Documento di Valutazione dei Rischi (DVR) che a sua volta rientra nelle definizioni presenti nell’AI Act di Valutazione d’Impatto sui Dati Personali (DPIA) e Valutazione d’Impatto sui Diritti Fondamentali (FRIA)[10].
Lo strumento della DPIA era già presente nel Regolamento generale sulla protezione dei dati (GDPR), che rimane la principale fonte normativa a riguardo e che possiamo andare a citare per comprendere come funziona questo strumento[11]. La valutazione d’impatto rappresenta un obbligo per il datore di lavoro nei casi previsti dall’articolo 35, paragrafo 3[12].
In particolare, essa è necessaria quando il trattamento dei dati avviene mediante modalità automatizzate (lett. a), quando riguarda categorie particolari di dati, quali quelli sensibili o relativi a condanne penali e reati (lett. b), oppure quando prevede un sistema di videosorveglianza sistematica che coinvolge spazi accessibili al pubblico (lett. c).
Al paragrafo 7 troviamo invece i contenuti minimi della DPIA, che sono: a) una descrizione sistematica dei trattamenti previsti e delle finalità del trattamento, compreso, ove applicabile, l’interesse legittimo perseguito dal titolare del trattamento; b) una valutazione della necessità e proporzionalità dei trattamenti in relazione alle finalità; c) una valutazione dei rischi per i diritti e le libertà degli interessati di cui al paragrafo 1; e d) le misure previste per affrontare i rischi, includendo le garanzie, le misure di sicurezza e i meccanismi per garantire la protezione dei dati personali e dimostrare la conformità al presente regolamento, tenuto conto dei diritti e degli interessi legittimi degli interessati e delle altre persone in questione.
Va specificato che questi sono requisiti essenziali, ma che non vanno necessariamente ad esaurire lo scopo della DPIA, e in casi particolari potrebbe servire anche arricchirla con altre informazioni.
Il Garante per la protezione dei dati personali, in una nota ufficiale pubblicata sul proprio portale, sottolinea come la DPIA non deve andare ad essere considerato esclusivamente un adempimento imposto dalla legge ma invece è da prendersi come una pratica altamente consigliata per una gestione consapevole dei rischi connessi al trattamento dei dati personali[13].
Le linee guida, già sottoposte a consultazione pubblica, ribadiscono che la valutazione d’impatto costituisce una buona prassi indipendentemente dagli obblighi legali, in quanto fornisce al titolare del trattamento un’analisi strutturata e dettagliata dei potenziali rischi, consentendogli di adottare misure preventive adeguate per ridurre la probabilità di incidenti futuri.
Attraverso un’accurata DPIA, infatti, il titolare può non solo garantire un livello più elevato di protezione per gli interessati, ma anche rafforzare la propria affidabilità e dimostrare il rispetto del principio di privacy by design e by default, sancito dal GDPR. Seguendo approccio – che rientra a pieno in una visione costruita sui principi della cybersicurezza – si capisce che il fine della DPIA è quella di formalizzare la consapevolezza dei rischi, creare un momento specifico per la definizione di strategie e politiche per il loro contrasto e assicurare la personalizzazione e l’aggiornamento periodico di queste procedure.
La scrittura di una DPIA non è un compito scontato, ma richiede una metodologia di lavoro specifica, che richiede imparzialità e allo stesso tempo una conoscenza adeguata del contesto in cui le attività si svolgono. Per questo il CNIL, l’autorità amministrativa indipendente francese incaricata di assicurare l’applicazione della legge sulla tutela dei dati personali, ha reso disponibile un programma open source che aiuta alla compilazione di una corretta DPIA e anche il GPDP italiano ha consigliato l’utilizzo di questo software.
Un ultimo principio quasi etico della cybersecurity che ritroviamo nell’approccio regolatorio del legislatore europeo è quello della trasparenza e tempestività delle segnalazioni di incidenti. La condivisione di informazioni sugli incidenti gravi viene delineata direttamente dalla sezione 2 del Capo IX del regolamento sull’intelligenza artificiale.
Questo aspetto non è affatto secondario, ma rappresenta un meccanismo essenziale sempre volto a risolvere il ‘problema zero’ dell’affidabilità. Le segnalazioni concretamente non dovrebbero essere viste come un episodio da nascondere per tutelare l’immagine dell’azienda o dell’amministrazione pubblica; mentre una gestione scorretta di questi episodi può portare anche a danni irreparabili alla reputazione, il rispetto delle procedure prestabilite e una comunicazione adeguata possono contribuire a rafforzare la sicurezza (con una valutazione ex-post dell’incidente) e anche alla sua proiezione esterna.
Una pratica consigliata infatti è quella di provvedere anticipatamente a queste comunicazioni, mettendo già in chiaro le informazioni che potrebbero essere compromesse, quali sono le procedure di crisis-mangagement e di resilienza strutturale e quale linguaggio utilizzare verso gli stakeholders in questione, tra cui gli stessi lavoratori.
Evidentemente, quest’ultimo principio ha senso solo se calato all’interno dell’intero approccio di cybersecurity, e in generale possiamo dire a questo punto che l’immagine complessiva del regolamento europeo è quella proprio di indirizzare – principalmente le aziende – verso l’adozione di questo approccio non come singoli obblighi da rispettare, ma come paradigma culturale a tutto tondo.
I controlli e le autorità di vigilanza nel quadro post AI ACT
Se l’approccio incoraggiato dalle norme europee è quello della sicurezza come metodo, il mondo reale spesso non rispecchia quanto auspicato dal legislatore – europeo o nazionale che sia. Non stupisce che quindi l’ultimo regolamento sulle Intelligenze Artificiali preveda anche un sistema di controlli basato su autorità e responsabilità.
Questo perché aldilà delle pratiche di prevenzione e valutazione del rischio, il problema di affidabilità degli algoritmi e delle tecnologie IA non è ancora risolto. Inoltre, non è un segreto che attorno a questo sviluppo tecnologico ci sia un interesse economico considerevole ed è quindi sensato preparare un sistema di controlli robusto, per assicurarsi che le norme di sicurezza e di etica continuino a essere applicate per tutto il ciclo di vita dell’IA[14].
Il sistema di responsabilità che esce dall’AI Act non è un sistema che ricade solo sui produttori di questi software, ma correttamente ricade su tutti gli stakeholder coinvolti; questo include gli utenti finali, anche noti come deployer[15], che la maggior parte delle volte sono le aziende o le pubbliche amministrazioni che acquistano questi servizi per gestire i dati dei loro dipendenti. Questo sistema è particolarmente critico per i sistemi di IA ad alto rischio, come l’utilizzo volto all’organizzazione dei lavoratori, dove il fallimento o malfunzionamento potrebbe avere conseguenze gravi[16].
Il capo IX dell’AI Act, le procedure di monitoraggio
Entrando nello specifico, il capo IX (Articoli da 72 a 94 dell’AI Act) è dedicato alle procedure di monitoraggio successive all’immissione nel mercato. Questa tesi si limita ad elencare gli articoli essenziali per dare un quadro di queste procedure, prima di discutere il caso italiano. Si rimanda all’analisi dell’avvocato e docente universitario Michele Iaselli per una dissertazione articolo per articolo di questo capo[17].
All’interno dell’articolo 76 viene specificata la necessità di test non solo all’interno di ambienti controllati, ma anche sul campo e calati nella realtà quotidiana.
Questo è fondamentale perchè ci fa comprendere l’inevitabilità sia di un sistema di controlli successivi all’immissione in mercato sia del coinvolgimento del deployer, che è senza dubbi la fonte migliore – se non l’unica – di informazioni sul lavoro quotidiano dei sistemi di IA. Gli obiettivi di questi controlli sono tre: a) misurare la resilienza e l’adattabilità dei sistemi di decisione automatica; b) identificare possibili discrepanze con i dati forniti dai fornitori di questi software, e; c) raccogliere informazioni per affinare le politiche regolatorie in materia.
Nell’articolo 78 viene fatta emergere la necessità della confidenzialità nella gestione delle informazioni fornite dai deployer che emergono attraverso le procedure di controllo. Questo perchè parlando di operatori economici, c’è il rischio che si possa temere della propria competitività con una conseguente perdita di trasparenza; un rischio che risulta amplificato trattandosi di una cooperazione internazionale all’interno del mercato unico europeo.
Anche per questo problema è la cybersecurity ed il GDPR che mostrano la strada verso una soluzione: la “pseudo-anonimizzazione” è un metodo di riservatezza già utilizzato, che permette di gestire anche dati sensibili slegandoli dalle specificità identificative. Questo genere di approccio è proprio quello che l’articolo 78 richiama.
È l’articolo 79 che ci permette di costruire una procedura specifia per la gestione dei sistemi di IA, differenziando sostanzialmente due fasi. La prima riguarda esclusivamente i produttori, che devono sottoporre le loro intelligenze artificiali ad una valutazione del rischio per ottenere una classificazione (o rating) del livello di rischio.
Questa è anche l’occasione per bloccare preventivamente quelle IA che non sono state costruite con le corrette procedure di minimizzazione del rischio, fatte apposta per evitare bias o discriminazioni sistematiche. La seconda fase riguarda invece i deployer; in caso di classificazione a basso rischio forniscono i dati per mantenere aggiornato il rating di rischio del prodotto che hanno acquistato e della sua implementazione, mentre nei casi di rischio medio o alto devono fornire questi dati per una sorveglianza specifica e per costruire la necessaria fiducia sull’utilizzo di questi sistemi.
Come specificato negli articoli successivi, i sistemi di monitoraggio e reporting non sono punti fissi ma processi continui che si basano sulla collaborazione tra fornitori, deployer e autorità di vigilanza, con l’obiettivo comune di risolvere il ‘problema zero’ dell’IA e di condividere le pratiche migliori all’interno di un contesto competitivo.
È evidente che i primi due attori non hanno un interesse completamente genuino nella minimizzazione del rischio, ed è per questo che la figura dell’autorità di vigilanza diventa così cruciale. Nell’articolo 77 viene specificato che loro non hanno solo il dovere di monitorare e valutare lo strumento tecnologico, ma anche di intervenire sulle politiche di prevenzione e mitigazione del rischio implementate. Lo strumento per farlo è l’accesso anche a dati e documenti durante indagini ed ispezioni specifiche.
La premessa sulla collaborazione serve a specificare che questo compito non è volto a “pizzicare” e punire chi sceglie di adoperare queste tecnologie, quanto a rendere l’unione europea un polo di concentramento e distribuzione delle pratiche di sicurezza. Non a caso, l’articolo 84 prevede l’istituzione di “strutture di sostegno” che vadano a favorire questa collaborazione, come per esempio aiutando le start-up nella compilazione dei Documenti di Valutazione del Rischio, otlre che a dedicare risorse proprio nel testare la sicurezza delle IA.
Fuori dal capo IX dell’AI Act, all’interno dell’Articolo 8 viene imposto anche l’obbligo di una consultazione con I lavoratori e le loro rappresentanze e di fornire loro la DPIA finale. Un obbligo che ricade sempre sul deployer, che però secondo gli articoli 9 e 13 dell’AI Act deve ricevere dal fornitore tutte le informazioni necessarie ad edempiere all’obbligo[18]. A dimostrazione che tutti questi processi non sono slegati dalla tutela dei lavoratori, ma anzi li riguardano in primo luogo.
Quali sono le autorità sull’IA in Italia?
Fin’ora abbiamo parlato in modo generale di “autorità di vigilanza”, senza specificare quali queste siano. Finora abbiamo parlato in modo generale di “autorità di vigilanza”, senza specificare quali queste siano. Nel Capo VII del regolamento dedicato alla governance, a livello europeo l’Unione ha optato per l’istituzione di una commissione dedicata, incaricata di garantire l’attuazione e il rispetto delle normative in materia di intelligenza artificiale e protezione dei dati.
Tale organismo funge da punto di riferimento per gli Stati membri, promuovendo un’interpretazione armonizzata delle disposizioni regolamentari e assicurando un coordinamento efficace tra le diverse giurisdizioni nazionali. A livello nazionale, invece, gli Stati hanno mantenuto un margine di autonomia nella definizione del proprio sistema di supervisione, con la facoltà di individuare a chi dare il compito di vigilanza per garantire il rispetto della normativa.
La condizione essenziale imposta dal quadro normativo europeo è che tali autorità dispongano delle risorse economiche e umane necessarie per svolgere efficacemente il proprio ruolo, garantendo un monitoraggio costante, l’applicazione delle sanzioni previste e l’adozione di misure adeguate per prevenire e mitigare i rischi connessi all’uso delle nuove tecnologie.
Senza fornire una strutturazione ottimale, il regolatore europeo lascia tre opzioni possibili, tutte compatibili con il regolamento. La prima è quella di allargare i poteri del Garante della Protezione dei Dati Personali, la seconda è quella di allargare gli incarichi forniti ad altre agenzie governative già attivi sulle materie informatiche o digitali e la terza è quella di costruire degli enti o delle agenzie specifiche per la vigilanza delle Intelligenze Artificiali[19].
La scelta dell’esecutivo italiano, adottata tramite il d.d.l 1146 del 20 maggio 2024, è stata quella di costruire un sistema a “trazione duale” tra l’AgID e l’ACN, lasciando ferme competenze, compiti e poteri del GPDP. Il primo ha il compito di promuovere l’innovazione e lo sviluppo dell’intelligenza artificiale, mentre il secondo è responsabile di identificare i profili della cybersicurezza e dell’attività di vigilanza.
Il decreto prevede anche un comitato di coordinamento presso il consiglio dei ministri, in particolare assicurando la cooperazione con il Ministero della Difesa, il Ministero delle Imprese e del Made in Italy e con le altre autorità nazionali dell’unione. Sostanzialmente, l’impostazione presentata dal governo è quella di mantenere vicino a sè la governance dell’IA, rispetto a decentrarla allargando i poteri di un organo di indipendente come il GPDP. Una scelta che, vista la stragecicità della materia, non stupisce sia quella più comune tra gli stati membri[20].
Nonostante questa sia una scelta prevista dall’impostazione comunitaria, il Garante della Privacy italiano ha fatto sentire il suo dissenso con la decisione. Il GPDP ha portato la richiesta di essere integrato all’interno delle procedure di consultazione e vigilanza sia in ragione di semplificazione e di certezza del diritto, rimanendo comunque l’autorità in quanto alla gestione dei dati sensibili e delle procedure di decisione automatizzata, sia in ragione al fatto che la sua attività corrente le permette di essere un ente che ha già accumulato il know-how pratico e la expertise riguardo l’attività di vigilanza in questa materia.
La scelta di non tenere esclusivamente in mano all’esecutivo il coordinamento dell’attività di vigilanza andrebbe a favorire anche il clima di collaborazione con le autorità degli stati membri, che resta un principio cardine dell’AI Act.
La ragione fondamentale dietro il ragionamento dell’esecutivo è che anche a livello europeo in realtà gli esecutivi vengono presi come punto di partenza della discussione per il bilanciamento strategico tra tutela dei dati e competitività di mercato, con l’istituzione all’articolo 65 del regolamento di un “consiglio europeo per l’intelligenza artificiale” composto da un rappresentante per ogni stato membro di emanazione ministeriale.
Un argomento troppo spinoso e controverso per lasciarlo ‘fuori controllo’ e che dimostra come il ‘problema zero’ della fiducia in questi sistemi abbia a volte anche delle emanazioni non scontate. È possibile che col tempo questa impostazione possa vedere delle modifiche, ma al momento è l’esecutivo l’attore centrale di queste procedure di controllo, mentre il GPDP viene relegato ad una voce da consultare in regime di coordinamento volontario quando richiesto dalle agenzie governative preposte.
Il modello delle certificazioni ISO e della direttiva NIS2
Chiudiamo questo quadro andando a guardare quelle che sono le certificazioni che le aziende o le pubbliche amministrazioni possono ottenere in materia di data protection. Queste certificazioni sono centrali perché pensate per essere compatibili con i processi di controllo previsti dai regolamenti europei e soprattutto perché diventano uno strumento necessario alla costituzione di un clima di affidabilità con gli stakeholder esterni, come gli investitori o i clienti, e gli stakeholder interni, come i lavoratori.
Le certificazioni ISO sono rilasciate da agenzie accreditate alla verifica di standard europei. In realtà, non si limitano soltanto alla sicurezza informatica ma possono riguardare anche le norme anticorruzione (ISO 37001) o la sostenibilità ambientale (ISO 14001). Quella riguardo le procedure di trattamento delle informazioni è la ISO 27001, che ha visto un aggiornamento dei suoi requisiti nel 2021. La peculiarità di queste certificazioni è che sposano appieno l’approccio della cybersecurity che abbiamo presentato nel primo paragrafo di questo capitolo.
Ovvero, non hanno semplicemente dei requisiti essenziali che vengono verificati meccanicamente, ma si basano su delle verifiche dettagliate che misurano in modo personalizzato l’approccio e le procedure delle singole aziende o pubbliche amministrazioni. Questo approccio si nota particolarmente nell’ ISO 9001 dedicata ai controlli qualità, una materia che appunto è difficilmente standardizzabile se affrontata con un approccio “minimalista”[21]. Infatti, possiamo prendere la struttura di questa ISO come lo standard di questo tipo di certificazione, con paralleli anche nella ISO sulla sicurezza dei dati. e che si sposa con i problemi posti dalle IA.
La certificazione da grande rilievo al risk management, che abbiamo già ampliamente discusso, enfatizzando l’approccio “per processi”, ovvero partendo dalla scomposizione delle attività in singoli processi. Non sono esenti da valutazione quei processi svolti materialmente da soggetti esterni, anzi necessitano un’attenzione particolare in quanto richiedono una valutazione della stragecità o meno di questa esternalizzazione. Il primo passo è proprio quello di identificare i problemi, le aspettative e i bisogni delle parti interessate, da anticipare per determinare i rischi – e le opportunità – da trattare nella costruzione di procedure e di defaults.
Il passo successivo è l’identificazione delle figure di leadership, che nella ISO 9001 è il System Quality Menager a capo di un “Sistema Gestione Qualità” (SGQ), diverso da un rappresentante della direzione – esclusa dal testo del 2015 – ma che invece è preposta alla verifica continua di queste procedure attraverso quelle che vengono definite “infromazioni documentate”.
La costruzione sia di una leadership sia di una traccia di documenti è un cambio di paradigma di gestione essenziale. Prima di tutto assicura una continuità in caso di cambi nella direzione o nella gestione, visto che le informazioni essenziali e la loro evoluzione nel tempo lascia una traccia tangibile, ma soprattutto va a facilitare quella collaborazione con le autorità di vigilanza previste dalla legge. La struttura si chiude con un’enfasi sulle valutazioni delle prestazioni dell’organizzazione attraverso parametri e indicatori quantitativi e qualitativi, in grado di far emergere criticità e best practices da includere nelle future strategie.
Lo scopo della ISO 27001 è quello di “specificare i requisiti per stabilire, implementare, mantenere e migliorare continuamente un sistemta di siurezza per la gestione dei dati[22]” e mostra una struttura fatta col calco della sorella ISO 9001 che abbiamo appena visto. La ISO 27001 richiede dopo l’identificazione degli stakeholdersi – di cui fanno sicuramente parte i lavoratori – delle misurazioni per cinque aspetti delle procedure: contesto, leadership, pianificazione, supporto (o meglio, risorse) e attività operative. Queste informazioni documentate devono essere formulate in modo da essere consistenti, misurabili quando praticabile, monitorabili, comunicabili in modo chiaro, in modo da definire concretamente responsabilità, compiti e risorse.
La ISO 27001, in particolare, richiede anche l’istituzione di procedure per la gestione di incidenti oltre alla semplice pianificazione e preparazione, come la valutazione di singoli episodi che possono far emergere nuove minacce o procedure per l’identificazione, la raccolta, l’acquisizione e la conservazione delle prove relative agli eventi di sicurezza. Un’altra peculiarità rispetto alla ISO9001 è il focus sull’implementazione di procedure di disaster recovery, ovvero la capacità del sistema di mitigare non solo il rischio di incidente ma anche gli effetti di eventuali fughe di dati o altri eventi disastrosi, partendo dal presupposto che sia impossibile prevedere tutti i possibili scenari.
Il modello delle ISO emerge già chiaramente come un sistema molto affidabile per certificare l’esistenza di un approccio sistematicamente organizzato e basato sulla valutazione e mitigazione del rischio, ma non è l’unico. Affianco a queste certificazioni abbiamo la direttiva europea NIS2, che nel 2022 è andata a sostituire la direttiva sulla sicurezza delle reti di informazione (Network Information Security, NIS). Come quella che l’ha preceduta, l’obiettivo di questa direttiva è quello di definire 10 principi di sicurezza che gli attori esposti alle reti e infrastrutture di informazioni devono rispettare.
Il primo è l’implementazione di un approccio basato sulla valutazione e mitigazione del rischio, che è letteralmente lo standard di questo settore, ma se vediamo gli altri nove vediamo un importante interazione con la ISO 27001, essi sono: 2) adozione di misure per garantire che anche i fornitori e le terze parti coinvolte rispettino gli standard di sicurezza, 3) obbligo di procedure di segnalazione dei dettagli essenziali di incidenti in 24 ore e di un rapporto dettagliato in 72 ore, 4) sviluppo di piani di continuità operativa, 5) effettuazione di test periodici e valutazioni ricorrenti delle vulnerabilità, 6) implementazione di controlli d’accesso rigorosi per sistemi ed infrastrutture critici, 7) formazione regolare del personale sulle best practices, 8) adozione di tecniche di crittografia avanzata e altre misure per la protezione dei dati sensibili, sia in transito sia a riposo, 9) promozione della condivisione delle informazioni su minacce e incidenti a livello nazionale ed europeo, e 10) supervisione da parte delle autorità competenti con sanzioni severe per le organizzazioni che non rispettano i requisiti di sicurezza.
Possiamo vedere la direttiva NIS2 come una armonizzazione finale di tutti i principi del quadro regolatorio europeo che va a stringere per quelle aziende e quelle amminstrazioni pubbliche essenziali e importanti, che sono inevitabilmente esposte a delle minacce da parte di attori malintenzionati o con interessi nel ledere la loro sicurezza. Questo è un approccio particolarmente efficace per i sistemi di intelligenza artificiale, che non solo rappresentano di per sè una possibile minaccia, ma si offrono come punto debole della corazza digitale europea. La direttiva NIS2 è un modello di regolamentazione più forte che però sposa a pieno l’approccio che si è adottato con le IA.
Il grande problema delle ISO e della NIS2, però, è che la prima è esclusivamente su base volontaria – anzi, deve essere letteralmente acquistata come certificazione – mentre la seconda diventa obbligatoria in base alla criticità e all’essenzialità di un determinato settore. Vista la criticità dell’implementazione di un’intelligenza artificiale e visto il riconoscimento che fa la stessa Unione Europea del pericolo rappresentanto dalla gestione automatizzata dei dati personali, questi modelli rappresentano un’alternativa a cui guardare quando si parla di regolamentazione.
Conclusioni
Alla fine di questa analisi possiamo dare un quadre generale dei principi e delle modalità con cui l’Unione Europea ha regolamentato la gestione dei dati dei dipendenti. L’obiettivo generale dell’impalcatura regolatrice europea è quella dello sviluppo di un’intelligenza artificiale per il bene sociale (AI4SG) come vantaggio strategico sugli altri attori globali all’interno della competizione per lo sviluppo di nuovi modelli di IA. Questo modello si basa sul bilanciamento tra la tutele dei diritti dei cittadini – incluso quello alla privacy – e la necessità dell’utilizzo dei loro dati per lo sviluppo tecnologico. Dopo l’adozione dell’AI Act è chiaro che il regolatore europeo ha deciso di mettere chiari limiti all’utilizzo dei dati per permettere un certo grado di libertà all’interno di questi.
L’adozione di questo approccio all’interno dell’ordinamento giuslavorista italiano ha incontrato delle tutele già esistenti, sia dal punto di vista dei principi sia dal punto di vista degli strumenti normativi; in particolare, la Costituzione e lo Statuto dei lavoratori fanno emergere l’importanza del principio della limitazione delle finalità, che attivamente restringe l’iniziativa economica del datore di lavoro, mentre lo stesso Statuto e il GDPR hanno già ampiamente normato lo strumento degli obblighi informativi.
Questo quadro giuridico è necessario a far emergere come le tutele presenti nelle direttive e nei regolamenti europei, rivolte genericamente ai cittadini, riguardano anche le aziende e, in particolare, ai lavoratori. Non è per niente secondario sottolineare che nel concreto gli attori che già applicano le intelligenze artificiali sono le aziende che sperimentano l’algorithmic management, cioè che usano intelligenze artificiali per analizzare i dati dei dipendenti e ottimizzare l’organizzazione del lavoro.
Materialmente, l’approccio europeo si sposa con diversi principi della cybersecurity, soprattutto basandosi sulla valutazione e mitigazione del rischio concreto e personalizzato per ogni applicazione, il cosiddetto risk-based approach. Ciò comporta diverse cose per gli attori economici che decidono di adottare queste tecnologie, aldilà che essi siano aziende o pubbliche amministrazioni.
Per prima cosa si devono impegnare a fare dei controlli ex-ante, sotto forma di valutazioni d’impatto sui dati personali e su altri diritti fondamentali. Questi documenti non devono essere scritti come semplici liste di minimi raggiunti – o paradossalmente provare a dimostrare l’infallibilità delle proprie attività – ma devono essere svolte in dettaglio per anticipare quanti più possibili minacce.
Di conseguenza, questo sistema comporta anche sottostare ad un regime di monitoraggio con le autorità competenti a livello nazionale ed europeo e prepararsi anche con delle specifiche politiche di crisis-management, che partono dal mantenere l’operatività anche in caso si verifichi un incidente fino al mantenere un rapporto collaborativo e comunicativo con il Garante della Protezione dei Dati Personali.
Oltre alle procedure di monitoraggio e di collaborazione reciproca tra organizzazioni e autorità, un elemento chiave della strategia europea diventa quello delle certificazioni. Per ultima, è stata la direttiva NIS2 ad introdurre degli standard di sicurezza per i nodi critici ed essenziali della rete di informazioni europea, ma ancora prima esisteva già il sistema di certificazione ISO.
Questo tipo di certificazione, soprattutto quelle legate a questa materia come la ISO 27001, anche se volontaria si dimostra essere uno strumento indispensabile perché non vengono rilasciate a seguito della verifica di uno standard universale; paradossalmente, quello che rende efficace nella standardizzazione delle ISO è proprio la personalizzazione delle verifiche per cui quello che viene certificato è l’effettiva qualità – in questo caso della gestione dei dati dei propri dipendenti e di terzi coinvolti.
All’interno di questo quadro emerge una direzione ben marcata: sono richiesti degli standard di sicurezza per adoperare le IA nel mercato europeo. C’è da dire che sono comunque emersi dei punti di tensione all’interno del sistema regolatorio europeo. Prima di tutto, vista la natura cruciale di questa materia c’è un conflitto su quanta autonomia lasciare alle procedure di monitoraggio.
Se da un lato più autonomia potrebbe portare ad una qualità di controllo più stringente, la scelta di affidare ad agenzie governative questo compito dimostra quantomeno la volontà degli esecutivi europei di lasciarsi qualche forma di influenza – probabilmente soprattutto quanto riguarda la competizione internazionale.
Rientra nello stesso filone, il problema delle certificazioni ISO che rimangono un prodotto che deve essere acquistato tramite degli enti certificatori privati. Se questo permette effettivamente di garantire un buon livello di controllo, dall’altro rende virtualmente impossibile estenderlo a tutte le aziende e le pubbliche amministrazioni che effettivamente andrebbero a beneficiare dell’algorithmic management. Allo stato attuale delle cose c’è invece anche un criterio di selezione economico, che però tiene comunque in considerazione i lavoratori escludendo chi non ha questo standard dalla possibilità di usare questa tecnologia.
Una chiave di lettura per futuri regolamenti può trovarsi in quello che abbiamo chiamato il ‘problema zero’ dell’intelligenza artificiale: l’affidabilità. Questo punto di partenza ci permette di districare questi primi nodi, ed altri a seguire, scegliendo la soluzione che permette di creare un clima con la necessaria fiducia per questi strumenti tecnologici. Non solo possiamo citare quindi dei controlli indipendenti, stringenti e magari finanziati attraverso strumenti pubblici – visto che le direttive europee già parlano di creare uffici dedicati a questi, basterebbe dargli le risorse necessarie a fare davvero bene questo lavoro – ma possiamo citare lo strumento (tutto italiano) della partecipazione dei lavoratori in questi processi.
Il fatto che nel nostro ordinamento l’adozione di queste tecnologie richiede la consultazione delle organizzazioni sindacali e un accordo con quelle comparativamente più rappresentative è uno strumento cruciale nella battaglia per aumentare la fiducia nella tecnologia.
Questa tesi non mira ovviamente ad essere esaustiva dell’argomento, ma dopo aver dato un quadro generale di come le cose dovrebbero funzionare a seguito dell’implementazione dell’AI Act ci sono anche successive possibilità di studio. Prima di tutto servirebbe una verifica sperimentale di quante aziende e pubbliche amministrazioni hanno queste certificazioni e concretamente quali sono queste best practices che stanno emergendo. Probabilmente un sistema pubblico europeo andrebbe ad incoraggiare una certa sistematizzazione di questo processo, ma non essendo all’orizzonte servirebbe anche costruire un’immagine concreta dello stato attuale delle cose.
Un’altra prospettiva da approfondire è quanto si stia dimostrando efficace il coinvolgimento delle organizzazioni sindacali in questo processo. Si può dare per certo che non è sufficiente rendere obbligatoria la consultazione con i sindacati per costruire davvero questo clima di fiducia, ma serve lo sforzo ulteriore affinché i lavoratori si sentano realmente protagonisti in questi processi.
La base giuridica per questo si può ritrovare nel fatto che, come abbiamo ribadito diverse volte in questa tesi, i dipendenti di un’azienda non sono meri strumenti produttivi ma veri e propri portatori di interessi interni all’azienda; visto che in tutti i processi di valutazione citati in questa analisi gli stakeholder hanno sempre un ruolo rilevante, dovrebbe essere chiaro che un gruppo così centrale al funzionamento di un’azienda dovrebbero avere un altrettanto ruolo centrale in processi del genere.
Questa prospettiva avrebbe delle ricadute decisamente positive; riguardando decine di milioni di persone solo nel nostro paese – l’INPS nel 2022 ne contava 26,6 milioni – andrebbe attivamente a diffondere quanto meno la conoscenza che la sicurezza dei propri dati viene considerata nei processi di costruzione delle pratiche aziendali. Questo è già effettivamente negli obiettivi del legislatore europeo, il che dimostra che siamo sulla strada giusta; tuttavia, nel momento in cui si decide che la strategia europea per il mercato delle IA è quella di diventare il polo regolatore allora c’è bisogno di andare fino in fondo con questa prospettiva. Le basi tecniche e giuridiche ci sono, serve solo avere la determinazione necessaria.
L’analisi ha evidenziato come l’AI Act europeo abbia stabilito un framework normativo completo basato sui principi della cybersecurity per la gestione dei dati dei dipendenti nell’era dell’intelligenza artificiale. Il quadro regolamentare europeo integra risk-based approach, procedure DPIA/FRIA, controlli post-market e certificazioni ISO 27001, creando un ecosistema di tutele che bilancia innovazione tecnologica e protezione dei diritti dei lavoratori.
Per approfondire tutti gli aspetti tecnici, normativi e pratici degli standard di gestione dei dati dei dipendenti dopo l’AI Act, scarica il white paper completo “Standard di gestione dei dati dei dipendenti dopo l’AI ACT” di Biagio Poliseno, che offre un’analisi dettagliata del framework europeo, casi d’uso pratici e linee guida operative per aziende e pubbliche amministrazioni.
Fonti:
[1] Cfr. Introduzione di questa tesi
[2] Agenzia per l’Italia Digitale (AGID). Strategia italiana per l’intelligenza artificiale 2024-2026. Consultato online il 14 febbraio 2025.
[3] Tebano L. (2023) “Poteri datoriali e dati biometrici nel contesto dell’AI Act”, Federalismi.it, 18 ottobre 2023
[4] Cappai M. (2024) “Intelligenza artificiale e protezione dei dati personali nel d.d.l. n. 1146: quale governance nazionale?”, Federalismi.it, 18 dicembre 2024
[5] Limone, E. varie dispense riportate in bibliografia
[6] Ibid.
[7] Ibid.
[8] Per la differenza tra questi dati cfr. il paragrafo 1.3 della tesi
[9] Tebano, L. Op. Cit.
[10] Giaccaglia, M. (2024). “La gestione algoritmica dell’impresa tra tutele dei lavoratori e prospettive partecipative (sul modello della sicurezza sul lavoro?)”. Diritto della sicurezza sul lavoro, (2), 478-502
[11] D’Arcangelo, L. (2024). “Data protection e sicurezza sul lavoro: un documento di valutazione dei rischi (DVR) anche per la privacy?.” Diritto della sicurezza sul lavoro, (1), 48-63
[12] Testo del GDPR consultabile dal sito del Garante Protezione dei Dati Personali a questo link https://tinyurl.com/5ymhbpew
[13] Limone, E. varie dispense riportate in bibliografia
[14] Iaselli M. (2024) “Dalla verifica reale dei prodotti una difesa per i diritti fondamentali. I controlli successivi”
[15] “La nozione di «deployer» di cui al presente regolamento dovrebbe essere interpretata come qualsiasi persona fisica o giuridica, compresi un’autorità pubblica, un’agenzia o altro organismo, che utilizza un sistema di IA sotto la sua autorità, salvo nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale. A seconda del tipo di sistema di IA, l’uso del sistema può interessare persone diverse dal deployer”, Reg.UE 2024/1689, considerando 13
[16] Iaselli M. (2024) “Monitoraggio post-vendita per un sistema più efficiente. I controlli successivi”
[17] Nella bibliografia sono riportati i diversi articoli contenuti nel quinto dossier del 2024 di Guida al diritto curato dal Sole24Ore
[18] Aimo, M. (2024). “Il management algoritmico nel lavoro mediante piattaforma digitale: osservazioni sulle prime regole di portata europea.”
[19] Cappai M. (2024) “Intelligenza artificiale e protezione dei dati personali nel d.d.l. n. 1146: quale governance nazionale?”, Federalismi.it, 18 dicembre 2024
[20] Ibid.
[21] Limone usa questo termine per indicare l’approccio delle certificazioni che controllano una serie di “minimi” evitando di affrontare la maggiore complessità di certi processi, come per esempio la gestione delle IA.
[22] International Organization for Standardization, ISO 27005:2022

Biagio Poliseno è nato a Bari il 21 agosto 2000. Dopo essersi trasferito a Roma, ha intrapreso un percorso accademico internazionale, conseguendo con lode una laurea triennale in Affari Internazionali presso la John Cabot University nel dicembre 2021. A marzo 2024 ha completato con il massimo dei voti la laurea magistrale in Scienze dell’amministrazione e della politica pubblica presso Sapienza – Università di Roma, con una tesi sul algorithmic management e il ruolo del sindacato nella regolazione dell’intelligenza artificiale nei contesti lavorativi.
Parallelamente alla formazione accademica, ha maturato esperienze in ambito amministrativo, redazionale e universitario, con tirocini in contesti di ONG e aziende. Durante la pandemia ha ricoperto il ruolo di Covid Manager, coordinando l’applicazione dei protocolli di sicurezza durante eventi sportivi organizzati da l’ACI.
Nel 2025 ha concluso con lode il master di II livello in Informatica giuridica, diritto delle nuove tecnologie alla Sapienza, presentando una tesi dedicata agli standard di gestione dei dati dei dipendenti alla luce del Regolamento europeo sull’intelligenza artificiale (AI Act).
