Legge 132/2025 sull’Intelligenza Artificiale: dalla teoria alla pratica nelle aziende italiane
L’entrata in vigore della Legge 132/2025 rappresenta un punto di svolta per la governance dell’intelligenza artificiale in Italia, ma la distanza tra principi normativi e attuazione pratica rischia di amplificare un gap competitivo già preoccupante.
Mentre il tasso di adozione dell’IA nelle imprese italiane si attesta all’8,2% contro una media UE del 13,5% secondo i dati ISTAT 2024, le organizzazioni si trovano a fronteggiare un doppio onere: implementare sistemi di intelligenza artificiale per non perdere competitività, e simultaneamente garantirne la conformità a un quadro normativo che integra AI Act europeo e specificità nazionali. Questo contributo analizza le sfide operative concrete che Chief Information Security Officers, legal counsels specializzati in cyber law, digital forensics experts e compliance officers devono affrontare, identificando i gap critici nell’implementazione e proponendo metodologie pragmatiche per la transizione verso una AI governance sostenibile.
Il contesto normativo: architettura di un sistema binario
La Legge 23 settembre 2025, n. 132, pubblicata in Gazzetta Ufficiale il 25 settembre 2025 ed entrata in vigore il 10 ottobre, non sostituisce il Regolamento UE 2024/1689 (AI Act), ma lo integra con disposizioni nazionali che ne operazionalizzano i principi negli spazi lasciati alla discrezionalità degli Stati membri. Questa stratificazione normativa genera un’architettura binaria che richiede alle organizzazioni una capacità interpretativa sofisticata.
Il legislatore italiano ha adottato un approccio settoriale che definisce regole specifiche per ambiti critici: sanità (art. 9), giustizia (art. 10), lavoro (art. 11), professioni intellettuali (art. 13), pubblica amministrazione (art. 14). La scelta di non limitarsi a principi generali ma di disciplinare applicazioni concrete testimonia una volontà di indirizzo forte, ma introduce complessità implementative significative che molte organizzazioni stanno solo ora cominciando a comprendere nella loro portata effettiva.
L’elemento più dirompente per le imprese è l’impatto sui modelli organizzativi ex D.Lgs. 231/2001. L’articolo 21 della Legge 132/2025 introduce nuove fattispecie di reato connesse all’uso illecito dell’IA e aggravanti specifiche. Viene introdotto l’art. 612-quater c.p. che punisce la diffusione illecita di contenuti generati o alterati tramite IA (deepfake) con pena da uno a cinque anni, mentre l’art. 61 si arricchisce del nuovo n. 11-decies che prevede un’aggravante per l’impiego di sistemi IA quando costituiscano mezzo insidioso o ostacolino la difesa. Aggravanti analoghe vengono introdotte per reati contro diritti politici, aggiotaggio e manipolazione del mercato quando commessi mediante intelligenza artificiale.
Questa estensione del catalogo dei reati presupposto obbliga le organizzazioni a ripensare integralmente la mappatura dei rischi e i protocolli di controllo, inserendo l’IA come variabile trasversale nei processi decisionali. Non si tratta più di aggiungere un capitolo al Modello esistente, ma di ripensarne l’intera architettura alla luce di una tecnologia che permea trasversalmente l’organizzazione.
Il gap italiano: numeri di un ritardo strutturale
I dati del report ISTAT “Imprese e ICT 2024” fotografano una realtà preoccupante: nonostante una crescita sostenuta del mercato italiano dell’IA (+38,7% nel 2024, con proiezioni di 909 milioni di euro nel 2024 e 1,8 miliardi nel 2027 secondo il Rapporto Anitec-Assinform “Il Digitale in Italia 2025”), solo l’8,2% delle imprese italiane con almeno 10 addetti utilizza almeno una tecnologia di IA, contro una media UE del 13,5%.
Questo divario di 5,3 punti percentuali rispetto alla media europea (l’Italia adotta l’IA a un ritmo inferiore del 39% rispetto alla media UE) non è meramente quantitativo, ma qualitativo: la tecnologia resta concentrata nelle grandi aziende (32,5% di adozione) e nei settori avanzati, mentre le PMI, che rappresentano il 92% del tessuto produttivo italiano, faticano strutturalmente nell’adozione con solo il 7,7% che utilizza IA.
Parallelamente, gli investimenti in cybersecurity crescono con forza: da 2 miliardi di euro nel 2024 a una proiezione di 2,75 miliardi nel 2027 (tasso di crescita annuo del 10,6% fino al 2028), come emerge dal White Paper Anitec-Assinform “IA e Cybersecurity”, confermando l’urgenza di rafforzare le difese digitali. Come sottolineato da Anitec-Assinform nel comunicato stampa del 17 aprile 2025, oltre alla normativa, la vera sfida è aumentare il tasso di adozione e portare benefici concreti alle imprese e ai cittadini, attraverso investimenti in formazione, programmi di accompagnamento per le PMI e sviluppo di competenze diffuse.
Il gap si manifesta su dimensioni interconnesse che richiedono interventi sistemici. Sul fronte delle competenze, l’alfabetizzazione in materia di IA prevista dall’art. 4 dell’AI Act e richiamata dalla L. 132/2025 è ancora lontana dall’essere diffusa. Le organizzazioni mancano di figure ibride in grado di comprendere simultaneamente le implicazioni tecniche, legali, etiche e operative dell’IA. Il CISO tradizionale si trova a dover dialogare con data scientists, legal counsels, HR managers e compliance officers su temi che richiedono un metalinguaggio ancora in formazione. Questa lacuna di competenze trasversali rappresenta forse il vincolo più stringente all’adozione consapevole dell’IA.
Sul piano organizzativo, la governance dell’IA richiede strutture decisionali nuove che molte aziende italiane faticano a implementare. Il modello gerarchico tradizionale, in cui la decisione finale spetta a un singolo soggetto apicale, entra in crisi quando il sistema IA genera output che influenzano decisioni ad alto impatto. La L. 132/2025 impone il principio della supervisione umana significativa (art. 3), ma tradurlo operativamente significa ripensare workflow consolidati, definire ruoli e responsabilità inediti, implementare sistemi di tracciabilità delle decisioni. QQQCome evidenziato nell’analisi di Innovation Machine, questo richiede un assessment strutturato che valuti lo stato attuale del sistema di intelligenza artificiale, identifichi gap e rischi, e costruisca roadmap di adeguamento a breve, medio e lungo termine.
Il gap tecnologico-infrastrutturale completa il quadro critico. Molte PMI operano ancora con infrastrutture IT legacy, prive dei requisiti minimi per l’adozione sicura di sistemi IA. La questione non è solo di investimento economico, ma di cultura del dato: mappatura dei data flows, classificazione dei dataset, data quality management, data lineage sono pratiche ancora poco diffuse nel tessuto produttivo italiano. La L. 132/2025 richiede localizzazione dei dati strategici presso datacenter nazionali per le PA (art. 14), una disposizione che può rappresentare un vantaggio competitivo per le aziende italiane del settore, ma che solleva interrogativi più ampi sulla sovranità digitale e sulla capacità delle organizzazioni di gestire la territorialità dei dati in architetture cloud ibride sempre più complesse.
Implementazione pratica: dalla norma all’operatività
Fase zero: censimento e mappatura
Il primo step implementativo, spesso sottovalutato ma fondamentale, è il censimento sistematico dei sistemi IA già in uso. Molte organizzazioni scoprono con sorpresa che algoritmi di ranking, chatbot, sistemi di analisi predittiva, strumenti di OCR avanzato, tool di screening CV sono già operativi, magari adottati da singoli dipartimenti senza una governance centralizzata. Questa “IA shadow“ rappresenta un rischio compliance significativo che può emergere solo attraverso un’indagine sistematica condotta a livello enterprise.
La mappatura deve documentare per ciascun sistema identificato la finalità e il contesto d’uso, interrogandosi su quale processo aziendale sia funzionale il sistema, chi lo utilizzi effettivamente e con quale frequenza. È necessario procedere poi con la classificazione del rischio secondo la tassonomia dell’AI Act, distinguendo tra rischio inaccettabile, alto, limitato e minimo. Questa categorizzazione non è un esercizio accademico: determina gli obblighi applicabili e le misure di controllo richieste.
L’analisi deve proseguire identificando il fornitore e le caratteristiche tecniche del sistema: si tratta di un prodotto commerciale o di uno sviluppo interno? Quali dati utilizza per il proprio funzionamento? Come è stato addestrato il modello sottostante? La comprensione dei data flows risulta particolarmente critica: occorre tracciare quali dati personali o categorie particolari ex art. 9 GDPR vengono processati, da dove provengono questi dati, dove risiedono fisicamente, per quanto tempo sono conservati e secondo quali logiche di retention.
Le misure di sicurezza implementate completano il quadro: quali controlli tecnici e organizzativi sono attivi per proteggere il sistema? Esistono audit trail che consentano di ricostruire le decisioni? È garantita la reversibilità delle decisioni algoritmiche? Come sottolineato nell’analisi per la Pubblica Amministrazione, questo Registro degli utilizzi IA non è un mero adempimento formale, ma il fondamento della strategia di compliance. Senza una visione d’insieme accurata e costantemente aggiornata, ogni intervento successivo è destinato a essere parziale, inefficace e potenzialmente controproducente.
Valutazione del rischio: DPIA e oltre
La Data Protection Impact Assessment (DPIA) è obbligatoria quando i trattamenti mediante IA possono comportare rischi elevati per diritti e libertà degli interessati, come stabilito dall’art. 35 GDPR. L’European Data Protection Board ha chiarito che il concetto di “rischio elevato” non si limita alla sicurezza dei dati intesa come riservatezza, integrità e disponibilità, ma comprende l’impatto sui diritti fondamentali: libertà di parola, libertà di pensiero, divieto di discriminazione, diritto alla dignità. Questa interpretazione estensiva richiede un approccio alla DPIA radicalmente diverso rispetto alle valutazioni tradizionali focalizzate sui soli aspetti di data protection.
Nel contesto specifico dell’intelligenza artificiale, la DPIA deve valutare scenari che spesso risultano controintuitivi per chi proviene da una cultura di risk assessment tradizionale. La questione dei bias algoritmici, ad esempio, richiede di verificare se in fase di training e testing siano stati rilevati valori discriminatori incorporati nel codice stesso, e di documentare quali meccanismi di debiasing siano stati implementati per mitigarli. Occorre indicare le misure correttive previste nel caso in cui tale rischio si presentasse in fase di utilizzo del sistema.
L’explainability costituisce un altro nodo critico: il sistema è in grado di fornire spiegazioni comprensibili delle proprie decisioni? È possibile ricostruire il reasoning sottostante a un output specifico? Queste domande non hanno risposte binarie, ma richiedono una valutazione contestuale che tenga conto del livello di rischio dell’applicazione e delle aspettative ragionevoli degli interessati. La robustezza e resilienza del sistema devono essere analizzate verificando se il sistema rimane stabile di fronte a input avversariali, se è protetto contro data poisoning e model inversion attacks, se esistono meccanismi di monitoraggio che rilevino degradazione delle performance nel tempo.
La protezione della privacy richiede infine di documentare l’implementazione di tecniche di privacy-enhancing come federated learning, differential privacy o homomorphic encryption, valutandone l’efficacia nel contesto specifico. Come sottolineato dall’analisi tecnica di Marco Carbonelli su ICT Security Magazine, la DPIA non è un documento statico da archiviare dopo l’approvazione iniziale, ma un processo iterativo che accompagna l’intero ciclo di vita del sistema IA. Ogni modifica significativa, sia essa un aggiornamento del modello, l’introduzione di nuove tipologie di dati o l’estensione del perimetro d’uso, richiede una revisione della valutazione che documenti come il profilo di rischio sia variato e quali misure aggiuntive siano eventualmente necessarie.
Un elemento critico, spesso trascurato nella pratica quotidiana delle organizzazioni, è il coinvolgimento degli stakeholders rilevanti. L’art. 35 GDPR prevede espressamente la consultazione degli interessati “ove opportuno”: nel contesto IA, questa consultazione può assumere forme innovative che vanno oltre le tradizionali survey, includendo focus group strutturati, beta release con meccanismi di feedback, panel di utenti rappresentativi. Il coinvolgimento dei rappresentanti dei lavoratori quando l’IA impatta processi HR, la collaborazione costante con il DPO, l’interazione con responsabili IT security ed esperti di settore non sono opzioni ma necessità per una valutazione che abbia reale valore predittivo e non si risolva in un esercizio burocratico.
Aggiornamento dei Modelli 231: responsabilità amministrativa e IA
L’integrazione dell’IA nei Modelli di Organizzazione, Gestione e Controllo ex D.Lgs. 231/2001 rappresenta uno dei nodi più complessi dell’implementazione normativa. La L. 132/2025 introduce nuovi reati presupposto e aggravanti legate all’uso dell’IA, rendendo necessario un aggiornamento strutturale non solo della Parte Speciale del Modello, ma dell’intera filosofia di risk assessment aziendale.
Il primo passaggio operativo consiste nell’identificare con precisione i processi aziendali in cui l’IA è utilizzata o potrebbe essere utilizzata, valutandone l’esposizione ai nuovi rischi-reato. Le aree che emergono come particolarmente critiche includono il marketing e la comunicazione, dove la generazione di contenuti mediante IA generativa espone al rischio di produzione di deepfake o contenuti ingannevoli che potrebbero configurare i nuovi reati introdotti dalla legge. Le relazioni esterne e con la Pubblica Amministrazione costituiscono un’altra zona d’ombra: l’utilizzo di IA in processi che coinvolgono pubblici ufficiali può generare responsabilità se non adeguatamente governato.
La gestione delle risorse umane rappresenta forse l’ambito più delicato: i sistemi di screening CV, valutazione delle performance, previsione del turnover basati su algoritmi di machine learning espongono al rischio concreto di discriminazione algoritmica, con potenziali implicazioni sia sul fronte del diritto del lavoro sia su quello della responsabilità amministrativa. L’ambito della cybersecurity chiude il cerchio delle criticità: l’impiego di IA per finalità di attacco o difesa si muove su un confine labile tra security testing legittimo e attività potenzialmente illecite, richiedendo protocolli di controllo estremamente rigorosi.
Per ciascuna area sensibile identificata, il Modello deve prevedere protocolli di controllo specifici che vadano oltre le dichiarazioni di principio. La due diligence sui fornitori richiede l’implementazione di procedure strutturate di qualificazione dei provider di sistemi IA, con verifica documentale della conformità ad AI Act e L. 132/2025, valutazione delle certificazioni possedute, analisi dei contratti per individuare clausole critiche su responsabilità, accesso ai dati, diritti di audit. La formazione mirata deve articolarsi in programmi di alfabetizzazione specifici per ruoli esposti, distinguendo tra personale di marketing, HR, IT, con focus non generici ma calati su use case concreti: uso lecito degli strumenti, limiti operativi tassativi, procedure di escalation quando si manifestano dubbi interpretativi.
L’audit trail e logging assumono carattere obbligatorio: ogni decisione influenzata da IA deve essere tracciabile, con documentazione della supervisione umana che specifichi chi ha esaminato l’output algoritmico, con quali competenze, in quale lasso temporale. L’integrazione dell’intelligenza artificiale nei processi di valutazione dei rischi-reato rappresenta una frontiera che può potenziare l’efficacia dei controlli, ma richiede a sua volta governance rigorosa.
Gli incident response protocols per la gestione di eventi critici devono essere predisposti anticipatamente, non in emergenza: cosa fare se un sistema genera un output discriminatorio? Come gestire la scoperta di un deepfake prodotto internamente? Quali procedure attivare in caso di data breach originato da un sistema IA? Le risposte a queste domande non possono essere improvvisate, ma richiedono playbook dettagliati, responsabilità chiare, canali di comunicazione definiti.
Il ruolo dell’Organismo di Vigilanza subisce una trasformazione sostanziale. L’OdV deve acquisire competenze specifiche in materia di IA per svolgere efficacemente la propria funzione di controllo, il che può richiedere l’integrazione di nuove professionalità come data scientists o AI ethics experts, o il ricorso sistematico a consulenze tecniche esterne qualificate.
L’OdV non può limitarsi a verifiche formali sull’esistenza di documenti, ma deve entrare nel merito della sostanza: l’aggiornamento del registro sistemi IA è effettivo o cartolare? L’implementazione delle misure previste dal Modello è verificabile attraverso audit tecnici? La documentazione delle DPIA e delle decisioni di risk acceptance è completa e tracciabile? L’efficacia dei programmi di formazione è misurabile attraverso metriche oggettive? La gestione degli incident genera realmente learning organizzativo o si risolve in correzioni spot?
Trasparenza e informativa: l’obbligo comunicativo
Gli articoli 11 (lavoro), 13 (professioni intellettuali) e 14 (Pubblica Amministrazione) della L. 132/2025 introducono obblighi di informazione specifici che hanno generato reazioni contrastanti tra le categorie professionali coinvolte. Chi utilizza sistemi IA deve comunicarlo agli interessati in modo “chiaro, semplice ed esaustivo“. Questo principio, apparentemente banale, genera complessità operative significative che molte organizzazioni stanno sottovalutando.
La prima questione riguarda il “cosa comunicare”. L’informativa deve coprire l’esistenza stessa e le finalità del sistema IA utilizzato, specificando in quale fase del processo interviene e con quale impatto sulla decisione finale. Le tipologie di dati trattati devono essere elencate con precisione sufficiente a consentire all’interessato di comprendere l’estensione del trattamento. Le logiche algoritmiche sottostanti rappresentano il nodo più critico: occorre spiegare come funziona il sistema nella misura compatibile con la tutela di eventuali segreti industriali, un bilanciamento delicato che richiede competenze comunicative sofisticate.
L’impatto della decisione algoritmica sul risultato finale deve essere quantificato o quanto meno qualificato: il sistema fornisce una raccomandazione che l’operatore può liberamente disattendere? Genera un punteggio che vincola la decisione se supera determinate soglie? Preseleziona candidati eliminando automaticamente chi non soddisfa criteri prestabiliti? I meccanismi di supervisione umana attivi devono essere descritti con il necessario livello di dettaglio, specificando chi supervisiona, con quale frequenza, con quali strumenti di override. Infine, i diritti dell’interessato devono essere esplicitati: diritto di opposizione, rettifica, richiesta di human review delle decisioni algoritmiche.
Il “come comunicare” rappresenta forse la sfida più ardua. La trasparenza è il filo conduttore della normativa, ma renderla effettiva significa evitare sia il tecnicismo esoterico incomprensibile ai non addetti, sia la banalizzazione che svuota di significato l’informativa. Il layered approach, con informativa sintetica di primo livello integrata da approfondimenti tecnici disponibili on-demand, rappresenta una soluzione efficace: l’utente riceve immediatamente le informazioni essenziali, ma può accedere a livelli successivi di dettaglio se desidera approfondire.
La visual communication attraverso infografiche, flowcharts, video esplicativi può illustrare processi decisionali complessi in modo più accessibile rispetto a testi densi. Le FAQ strutturate e i casi d’uso concreti aiutano l’interessato a comprendere come il sistema opera in situazioni tipiche che può riconoscere come rilevanti per la propria esperienza. Un glossario accessibile diventa indispensabile quando termini tecnici come machine learning, neural network, training set risultano inevitabili: meglio spiegarli con linguaggio piano che dare per scontata una familiarità che spesso non c’è.
Il “quando comunicare” chiude il cerchio degli obblighi: l’informazione deve essere preventiva, non ex post. Nel contesto lavorativo, come specificato dall’art. 11 commentato dal Centro Studi CISL, ciò significa informare i dipendenti prima dell’implementazione di sistemi IA che impattano gestione, valutazione o selezione. Per le professioni intellettuali, l’obbligo scatta all’avvio della prestazione: il cliente deve sapere sin dall’inizio se e come l’IA supporta il professionista. Per la PA, deve essere garantita trasparenza ex ante attraverso pubblicazione sul sito istituzionale e informative specifiche nei procedimenti interessati.
Il mancato o inadeguato assolvimento di questi obblighi informativi espone l’organizzazione a rischi molteplici e convergenti. L’invalidità degli atti amministrativi per violazione del diritto di partecipazione e difesa rappresenta un rischio concreto per le PA. La responsabilità contrattuale può configurarsi nelle professioni intellettuali quando il cliente dimostri che avrebbe scelto diversamente se fosse stato adeguatamente informato. Le sanzioni GDPR possono raggiungere i 10 milioni di euro o il 2% del fatturato globale per violazione dell’art. 35, come documentato nel provvedimento del Garante. Il danno reputazionale, infine, può risultare più gravoso delle sanzioni formali, erodendo la fiducia di clienti, partner, investitori.
Human-in-the-loop: supervisione umana significativa
Il principio cardine della L. 132/2025 è che l’IA deve restare strumento di supporto, non decisore autonomo. L’art. 3 sancisce la “centralità della persona” e impone che ogni sistema di intelligenza artificiale debba essere sottoposto a forme di supervisione umana significativa. L’art. 14 specifica per la PA che l’utilizzo dell’intelligenza artificiale avviene in funzione strumentale e di supporto all’attività provvedimentale, nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile.
Tradurre operativamente il concetto di “supervisione umana significativa” è tutt’altro che scontato e richiede di superare la retorica che spesso accompagna questi temi. Non basta affermare che “la decisione finale spetta all’uomo” per adempiere all’obbligo: occorre progettare architetture decisionali che rendano questa supervisione effettiva, non formale. La letteratura tecnica identifica tre modelli principali di supervisione, ciascuno appropriato per diversi livelli di rischio.
Il modello Human-in-the-loop (HITL) prevede che l’umano sia coinvolto in ogni singola decisione: l’IA fornisce raccomandazioni che l’operatore può accettare o rigettare, con obbligo di motivazione esplicita in caso di disallineamento. Questo modello è mandatorio per sistemi ad alto rischio che impattano diritti fondamentali, salute o sicurezza delle persone. Il modello Human-on-the-loop (HOTL) consente all’IA di operare autonomamente entro parametri rigorosamente definiti, mentre l’umano monitora l’operatività e può intervenire quando emergono anomalie o su campioni predefiniti secondo logiche statistiche. Il modello Human-in-command (HIC) sposta la supervisione a livello strategico: l’umano definisce obiettivi e vincoli, l’IA esegue autonomamente ma l’umano mantiene il controllo strategico e può interrompere il sistema in qualsiasi momento.
La scelta del modello appropriato non può essere arbitraria ma deve discendere da un risk assessment rigoroso. Tuttavia, la supervisione efficace richiede prerequisiti che molte organizzazioni non garantiscono. Il supervisore deve possedere competenze sufficienti per comprendere il funzionamento del sistema, i suoi limiti intrinseci, i suoi bias potenziali: non può supervisionare efficacemente ciò che non comprende. L’autorità del supervisore deve essere effettiva, non nominale: deve avere il potere reale di overridare le raccomandazioni dell’IA senza subire conseguenze negative, pressioni implicite o esplicite verso il conformismo algoritmico.
Il tempo e le risorse rappresentano vincoli spesso sottovalutati: il supervisore deve disporre del tempo necessario per esaminare criticamente gli output, non essere pressato da vincoli di produttività incompatibili con una revisione accurata. Se il sistema genera 100 raccomandazioni al giorno e il supervisore dispone di 10 minuti totali per esaminarle, la supervisione è strutturalmente impossibile, non importa quanto competente sia l’operatore. L’indipendenza costituisce infine un requisito ideale spesso difficile da garantire: il supervisore non dovrebbe aver partecipato allo sviluppo del sistema per evitare bias di conferma, ma nelle organizzazioni piccole questa separazione può risultare impraticabile.
La documentazione di ogni decisione influenzata da IA diventa un obbligo non derogabile. Ogni caso deve essere tracciato specificando l’output fornito dal sistema IA, la valutazione del supervisore umano con indicazione delle verifiche effettuate, la decisione finale assunta e la motivazione di eventuali discostamenti dall’output algoritmico. Questa documentazione, per quanto onerosa, è essenziale non solo per dimostrare la compliance in caso di audit o contenziosi, ma anche per accumulare dati utili al miglioramento continuo del sistema: i casi in cui l’umano ha sistematicamente overridato l’IA possono rivelare bias o errori del modello che richiedono retraining o revisione delle logiche decisionali.
Gap analysis: criticità e opportunità
Gap normativi e implementativi
La L. 132/2025 si presenta dichiaratamente come legge “quadro“, rimandando a futuri decreti attuativi, da emanarsi entro 12 mesi, la definizione di aspetti cruciali quali procedure tecniche di valutazione, dettagli sanzionatori, articolazione precisa della governance nazionale tra AgID e ACN. Questa incompletezza, per quanto fisiologica in una normativa di questo tipo, genera incertezza operativa significativa: le organizzazioni devono implementare misure basandosi su principi generali, con il rischio concreto che i decreti attuativi introducano requisiti ulteriori o interpretazioni difformi che richiederanno costosi adeguamenti successivi.
Il coordinamento tra AI Act e L. 132/2025 crea ulteriori complessità interpretative che molti operatori sottovalutano. La sovrapposizione tra normativa europea e nazionale genera zone grigie in cui non è sempre chiaro quale disposizione prevalga o come si integrino requisiti apparentemente duplicati. L’AI Act classifica i sistemi in base al rischio e impone obblighi specifici ai providers e deployers. La L. 132/2025 introduce ulteriori obblighi settoriali che si stratificano su quelli europei. Le organizzazioni devono navigare due framework normativi che, pur coerenti nei principi ispiratori, differiscono nei dettagli operativi e nelle tempistiche applicative. La mancanza di linee guida consolidate da parte delle autorità competenti aumenta il rischio di interpretazioni difformi, con conseguente incertezza sulla compliance effettiva.
Il deficit di standard tecnici rappresenta forse la lacuna più critica dell’attuale panorama normativo. Molti requisiti normativi quali explainability, robustezza, fairness mancano di standard tecnici condivisi che consentano una valutazione oggettiva. Cosa significa concretamente “spiegazione comprensibile” per un modello di deep learning con milioni di parametri distribuiti su centinaia di layer? Quali metriche utilizzare per valutare il bias in contesti applicativi diversi? Quali threshold di accuratezza sono accettabili per un sistema di screening CV rispetto a uno di diagnosi medica assistita? L’assenza di reference standards condivisi, certificati da enti terzi riconosciuti, costringe le organizzazioni a scelte discrezionali, con conseguente frammentazione delle pratiche e difficoltà oggettive nei processi di audit e certificazione.
Gap di competenze e formazione
L’art. 4 dell’AI Act impone alle organizzazioni di garantire “un livello sufficiente di alfabetizzazione in materia di IA del loro personale“. La L. 132/2025 rafforza questo obbligo prevedendo “percorsi di formazione digitale” (art. 13) e “programmi di educazione e sensibilizzazione” (art. 8). Tuttavia, il mercato della formazione è ancora immaturo e caratterizzato da offerte di qualità molto disomogenea.
La carenza di formatori qualificati costituisce il primo vincolo strutturale: pochi professionisti combinano competenze tecniche in AI/ML, conoscenze legali approfondite di GDPR, AI Act e L. 132/2025, sensibilità etica su temi di bias e fairness, e competenze organizzative in risk management e compliance. Questa rarefazione di competenze ibride si riflette nell’offerta formativa: molti corsi propongono panoramiche superficiali su tutti i temi, senza declinazioni operative settoriali che consentano ai partecipanti di applicare i concetti al proprio contesto specifico. La difficoltà di misurazione dell’efficacia formativa completa il quadro critico: come valutare se la formazione ha realmente aumentato il livello di alfabetizzazione? Quali KPI adottare per monitorare il progresso? Come distinguere l’apprendimento dichiarativo superficiale dalla comprensione procedurale profonda?
Le organizzazioni che vogliono affrontare seriamente questo gap devono investire in formazione stratificata su più livelli. L’awareness generale per tutti i dipendenti deve coprire principi fondamentali, rischi connessi all’uso improprio dell’IA, obblighi informativi base, con un approccio divulgativo ma non banalizzante. La formazione tecnica per sviluppatori e data scientists richiede focus su privacy-by-design, tecniche di debiasing, metodologie di testing rigoroso, con esempi di codice e case study concreti.
La formazione specialistica per ruoli chiave quali DPO, CISO, legal counsels, compliance officers deve entrare nel dettaglio di governance frameworks, metodologie di risk assessment specifiche per IA, incident management, interpretazione normativa, con simulazioni e discussione di casi controversi. La formazione esecutiva per C-level e board deve concentrarsi su rischi strategici, responsabilità legali e reputazionali, opportunità competitive, con un taglio meno tecnico ma altrettanto rigoroso.
Gap organizzativo e culturale
L’adozione dell’IA non è un semplice aggiornamento tecnologico ma un cambiamento culturale profondo che investe i valori, i processi, le dinamiche di potere all’interno delle organizzazioni. Richiede anzitutto un mindset data-driven, un passaggio da decisioni basate su intuizione, esperienza personale, gerarchie consolidate a decisioni fondate su evidenze quantitative, analisi statistiche, pattern identificati algoritmicamente. Questo shift cognitivo genera resistenze, spesso implicite, in chi teme di vedere sminuito il valore della propria esperienza professionale.
La cultura dell’errore rappresenta un altro nodo critico: occorre accettare che i sistemi IA sbagliano, che l’accuratezza del 95% significa comunque 5 errori ogni 100 decisioni, che il machine learning richiede iterazioni, testing, fallimenti dai quali apprendere. Le organizzazioni italiane, tradizionalmente caratterizzate da bassa tolleranza all’errore e cultura della colpa, faticano a sviluppare questa capacità di learning from failures necessaria per governare tecnologie intrinsecamente probabilistiche.
La cross-functional collaboration diventa prerequisito non negoziabile: il superamento dei silos organizzativi, il dialogo costante tra IT, legal, business units, HR non sono opzioni ma necessità. L’IA è per definizione una tecnologia trasversale che tocca tutti i processi aziendali, e una governance efficace richiede meccanismi strutturati di coordinamento che molte organizzazioni gerarchiche tradizionali non possiedono. L’integrazione di etica applicata nei processi decisionali completa il quadro delle trasformazioni culturali necessarie: le considerazioni etiche non possono essere relegate a vincoli esterni imposti dalla compliance, ma devono diventare valori intrinseci che guidano le scelte tecnologiche.
Molte organizzazioni italiane, soprattutto PMI a carattere familiare, mantengono strutture gerarchiche rigide e culture profondamente avverse al rischio, poco compatibili con l’agilità e la sperimentazione controllata richieste dall’innovazione IA. Il cambiamento culturale è notoriamente lento, richiede leadership commitment visibile e continuativo, coerenza tra dichiarazioni e comportamenti effettivi, investimenti temporali che vanno ben oltre l’orizzonte del quarter finanziario.
Opportunità: compliance come vantaggio competitivo
La conformità alla L. 132/2025 e all’AI Act, tuttavia, non deve essere vista esclusivamente come onere ma anche come opportunità strategica che può generare vantaggi competitivi tangibili. La differenziazione reputazionale rappresenta il primo beneficio: le organizzazioni che dimostreranno standard elevati di AI governance, magari attraverso certificazioni di terza parte o audit indipendenti pubblicati, potranno valorizzare questa compliance in termini di brand equity e fiducia degli stakeholder. In un mercato dove i data breach e gli scandali algoritmici erodono rapidamente la fiducia, una reputazione solida di AI responsabile costituisce un asset strategico non facilmente replicabile.
L’accesso facilitato a incentivi pubblici costituisce un ulteriore vantaggio concreto. La L. 132/2025 prevede un fondo da 1 miliardo di euro per tecnologie emergenti e IA affidabile, con specifico sostegno a microimprese e PMI. Le organizzazioni che possono dimostrare compliance strutturata saranno favorite nell’accesso a bandi, contributi a fondo perduto, partnership pubblico-private che richiedono garanzie di solidità governance.
La mitigazione dei rischi legali assume rilevanza crescente in un contesto dove le sanzioni potenziali sono drammaticamente aumentate: fino a 35 milioni di euro o 7% del fatturato globale per pratiche vietate secondo l’AI Act. Investire in compliance preventiva significa ridurre drasticamente l’esposizione a queste sanzioni future, evitare contenziosi costosi, prevenire il danno reputazionale amplificato dai social media che può risultare più distruttivo delle multe stesse.
L’attraction e retention di talenti qualificati costituisce un beneficio spesso sottovalutato. I professionisti di alto livello, particolarmente nelle aree tecniche e legal, preferiscono lavorare per organizzazioni che dimostrano serietà nella governance tecnologica, che investono in formazione continua, che operano secondo standard etici elevati. In un mercato del lavoro sempre più competitivo per le competenze IA-related, la reputazione di AI responsabile può fare la differenza nel reclutamento.
Le sandbox regolamentari, infine, rappresentano opportunità preziose per PMI e startup. L’AI Act e la normativa nazionale prevedono spazi di sperimentazione controllata dove testare innovazioni IA con supervisione regolatoria, riducendo il rischio compliance durante le fasi di R&D. Accedere a questi programmi richiede però di dimostrare un approccio maturo alla governance, chiudendo il cerchio: la compliance apre porte che restano precluse a chi opera in zone grigie.
Metodologia operativa per l’implementazione: un percorso in cinque fasi
L’implementazione della Legge 132/2025 nelle aziende italiane richiede un approccio metodologico strutturato che bilanci rigore e pragmatismo, evitando sia la paralisi da analisi sia l’improvvisazione irresponsabile. La metodologia qui proposta si articola in cinque fasi temporalmente sovrapposte, con particolare attenzione all’interdipendenza tra gli interventi e alla necessità di quick wins che dimostrino valore nei primi mesi.
La prima fase di assessment e mappatura, che occupa tipicamente i primi due mesi del progetto, inizia con la costituzione di una task force multidisciplinare che coinvolga rappresentanti delle aree IT, legal, compliance, business e risorse umane. Questa eterogeneità non è un vezzo organizzativo ma una necessità: l’IA è per definizione trasversale e richiede competenze complementari per essere governata efficacemente. Il censimento dei sistemi IA esistenti, inclusa la cosiddetta “shadow AI” adottata dai dipartimenti senza autorizzazione formale, costituisce il primo deliverable concreto: un inventario esaustivo che documenti ogni applicazione, anche quelle apparentemente marginali.
La mappatura dei data flows procede in parallelo, identificando quali dati personali o categorie particolari vengano processati da ciascun sistema, con particolare attenzione alle origini dei dati e ai tempi di conservazione. La classificazione dei sistemi per livello di rischio secondo la tassonomia dell’AI Act consente di stabilire priorità razionali negli interventi successivi: un sistema ad alto rischio che processa dati sanitari sensibili richiede attenzione immediata, mentre un chatbot informativo a rischio minimo può essere affrontato con calma maggiore.
L’identificazione dei processi aziendali esposti ai nuovi reati presupposto del D.Lgs. 231/2001 chiude questa fase di analisi, producendo una gap analysis strutturata che confronta lo stato attuale con i requisiti normativi e definisce priorità di intervento basate su una matrice rischio per impatto.
La seconda fase di governance e policy, tipicamente collocata tra il terzo e il quarto mese, si concentra sulla definizione dell’architettura decisionale e dei documenti strategici. L’AI Governance Framework deve specificare ruoli e responsabilità con precisione chirurgica: chi approva l’adozione di nuovi sistemi IA? Chi ha autorità per interrompere un sistema che manifesta comportamenti anomali? Come si coordinano le diverse funzioni aziendali nelle decisioni che coinvolgono l’IA? La costituzione di un comitato multifunzionale per l’IA, che si riunisca con cadenza almeno mensile, fornisce la sede istituzionale per queste decisioni.
La redazione dell’AI Policy aziendale traduce i principi normativi in linee guida operative: quali casi d’uso sono ammessi, quali esplicitamente vietati, quali sottoposti ad approval workflow particolare? Un documento di policy efficace non si limita a enunciare principi astratti ma fornisce esempi concreti, distinguendo tra utilizzi legittimi e utilizzi problematici attraverso case study che i dipendenti possano riconoscere come rilevanti per il proprio lavoro quotidiano. L’aggiornamento del Modello 231 deve intervenire sia sulla Parte Generale, integrando i principi di AI governance, sia sulla Parte Speciale, introducendo protocolli specifici per le aree a rischio identificate nella prima fase.
La definizione di procedure per l’introduzione di nuovi sistemi IA costituisce forse il deliverable più importante di questa fase: un approval workflow che specifichi quali valutazioni siano necessarie prima dell’adozione, chi debba essere coinvolto, quali documenti prodotti, quali soglie di rischio richiedano escalation verso livelli decisionali superiori. La contrattualizzazione con i fornitori richiede attenzione particolare alle clausole su responsabilità, diritti di audit, data ownership, exit strategies: contratti standard pensati per software tradizionale spesso non coprono adeguatamente le specificità dell’IA.
La nomina di un AI Coordinator o AI Ethics Officer, se la dimensione aziendale lo giustifica, fornisce un punto di riferimento organizzativo visibile per tutte le questioni IA-related. L’integrazione dell’IA nell’Enterprise Risk Management chiude questa fase, assicurando che i rischi algoritmici siano trattati con lo stesso rigore dei rischi finanziari, operativi, reputazionali tradizionali.
La terza fase di compliance operativa, che si sviluppa tipicamente tra il quinto e il settimo mese con significative sovrapposizioni con la fase formativa, si concentra sull’implementazione concreta delle misure. L’esecuzione delle DPIA per sistemi ad alto rischio richiede competenze tecniche e legali avanzate, spesso imponendo il ricorso a consulenze esterne specializzate. L’implementazione di misure tecniche quali logging strutturato, audit trail immutabili, explainability tools integrati nei sistemi critici richiede collaborazione stretta tra team di compliance e team di sviluppo, spesso con necessità di refactoring di sistemi esistenti.
Le misure organizzative, quali segregation of duties e protocolli di human oversight, devono essere tradotte in procedure operative dettagliate che specifichino chi fa cosa, quando, con quali strumenti, secondo quali criteri. La redazione delle informative per lavoratori, clienti, utenti secondo il layered approach discusso precedentemente costituisce un deliverable che richiede iterazioni multiple: le prime versioni sono inevitabilmente troppo tecniche o troppo vaghe, e solo attraverso testing con utenti reali si raggiunge il bilanciamento ottimale tra completezza e comprensibilità.
La definizione di incident response plan specifici per IA anticipa scenari critici: discovery di bias discriminatorio in produzione, deep fake creato con strumenti aziendali, data breach originato da vulnerabilità in un modello di ML. Ogni scenario richiede playbook dettagliati con responsabilità, canali di comunicazione, criteri di escalation predefiniti. Il testing e la validazione dei meccanismi di supervisione umana attraverso simulazioni e penetration testing organizzativi verifica che i controlli progettati funzionino nella pratica, non solo sulla carta. La documentazione di compliance, che include registro dei trattamenti aggiornato, registro sistemi IA, DPIA, risk assessments settoriali, deve essere organizzata in modo che un auditor esterno possa ricostruire la logica decisionale dell’organizzazione senza necessità di interviste estensive.
La quarta fase di formazione e change management, che si sviluppa in parallelo alla fase di compliance operativa tra il sesto e l’ottavo mese, affronta la dimensione più critica e sottovalutata dell’implementazione: le persone. La progettazione del piano formativo stratificato deve differenziare contenuti, metodi e durata in funzione dei target: awareness generale per tutti i dipendenti con moduli e-learning di 2-3 ore, formazione tecnica per sviluppatori e data scientists con workshop pratici di 2-3 giorni, formazione specialistica per DPO, CISO, legal e compliance officers con masterclass di 5 giorni più follow-up periodici, formazione esecutiva per C-level e board con sessioni intensive di mezza giornata focalizzate su rischi e opportunità strategiche.
L’erogazione della formazione con metodologie blended che combinano e-learning asincrono, sessioni d’aula sincrone, workshop pratici su casi reali, simulazioni di incident response massimizza l’efficacia dell’apprendimento rispetto a formazioni puramente frontali. La valutazione dell’efficacia attraverso test di apprendimento, discussione di case studies, raccolta sistematica di feedback consente di iterare e migliorare i contenuti. Il programma di comunicazione interna attraverso newsletter periodiche, sezioni dedicate sull’intranet aziendale, town halls con il management crea awareness diffusa e dimostra commitment visibile della leadership.
Il coinvolgimento delle rappresentanze dei lavoratori, come richiesto dall’art. 11 della L. 132/2025, non deve essere formale ma sostanziale: presentazioni dedicate, consultazioni sui sistemi che impattano i lavoratori, canali di feedback strutturati. La creazione di un repository documentale accessibile che raccolga policy, procedure, FAQ, glossari, template per le valutazioni costituisce una risorsa permanente che riduce la dipendenza da singole persone e facilita l’onboarding di nuovi colleghi.
La quinta fase di monitoraggio e miglioramento continuo, che parte dall’ottavo-nono mese ma prosegue indefinitamente, trasforma la compliance da progetto a processo permanente. L’attivazione di KPI per monitorare la compliance attraverso metriche quali percentuale di sistemi IA censiti sul totale stimato, percentuale di DPIA completate per sistemi ad alto rischio, coverage della formazione per categoria di dipendenti, tempo medio di risposta agli incident fornisce visibilità oggettiva sullo stato dell’implementazione e consente correzioni di rotta tempestive.
Gli audit interni periodici, con cadenza almeno semestrale, verificano la conformità effettiva alle policy e procedure, non limitandosi a controllare l’esistenza di documenti ma testando l’operatività dei controlli attraverso sample testing e walkthrough. La revisione delle DPIA in caso di modifiche significative ai sistemi, nuovo training dei modelli, estensione dei casi d’uso, cambiamenti normativi assicura che le valutazioni restino attuali. Il monitoraggio dell’evoluzione normativa, con particolare attenzione ai decreti attuativi della L. 132/2025 attesi nei prossimi mesi e alle linee guida di AgID, ACN e EDPB richiede dedicare risorse specifiche al regulatory intelligence.
La raccolta e analisi sistematica degli incident IA, con root cause analysis, identificazione di lessons learned, aggiornamento conseguente delle procedure trasforma gli errori in opportunità di miglioramento. L’aggiornamento almeno annuale del Modello 231 basato sul risk assessment aggiornato mantiene allineamento tra governance formale e realtà operativa. Il reporting periodico al Consiglio di Amministrazione e all’Organismo di Vigilanza sullo stato della AI governance, con metriche quantitative e assessment qualitativo, assicura che il top management mantenga visibilità e ownership su un tema che rapidamente evolve da questione tecnica a rischio strategico d’impresa.
Conclusioni: oltre la compliance, verso l’AI trustworthy
L’implementazione della Legge 132/2025 nelle aziende italiane non può essere ridotta a un esercizio di compliance formale, un’ulteriore casella da spuntare nell’elenco già affollato degli adempimenti normativi. La posta in gioco è significativamente più alta: si tratta di costruire un ecosistema di intelligenza artificiale affidabile (trustworthy AI), in cui innovazione tecnologica e tutela dei diritti procedano in parallelo, in una tensione produttiva piuttosto che in un’opposizione sterile.
Il gap che separa l’Italia dalla media europea nell’adozione dell’IA, con quel divario del 61% che i dati Anitec-Assinform hanno impietosamente fotografato, è preoccupante e richiede interventi urgenti. Tuttavia, la normativa può trasformarsi da ostacolo percepito in catalizzatore effettivo se governata con approccio pragmatico e strategico. Le organizzazioni che sapranno integrare i requisiti normativi nei processi di sviluppo e deployment dell’IA fin dalle fasi iniziali, adottando un paradigma di AI governance by design piuttosto che di compliance retrofitted, costruiranno un vantaggio competitivo sostenibile che i competitor non potranno replicare rapidamente.
Tre fattori emergeranno come determinanti nei prossimi anni, distinguendo le organizzazioni che prospereranno in questo nuovo panorama da quelle che resteranno indietro. L’investimento sistematico in competenze ibride costituisce il primo elemento critico. La tecnologia evolve con ritmo esponenziale, la normativa la insegue con ritardi fisiologici inevitabili in democrazie pluraliste dove il processo legislativo richiede tempi di maturazione. Le organizzazioni non possono permettersi di affidarsi passivamente a checklist statiche elaborate da consulenti esterni: devono costruire capacità interne di interpretazione, anticipazione, adattamento.
Il ruolo tradizionale del Data Protection Officer sta già evolvendo verso quello di AI Ethics & Compliance Officer, una figura che integra competenze tecniche approfondite su machine learning e data science, conoscenze legali estese di GDPR, AI Act e normative settoriali, sensibilità etica maturata attraverso studio di casi controversi, capacità organizzative di gestire processi trasversali che coinvolgono tutta l’azienda.
La collaborazione multi-stakeholder rappresenta il secondo fattore critico che nessuna organizzazione può permettersi di trascurare. Nessuna impresa, per quanto grande e sofisticata, può affrontare da sola la complessità multidimensionale dell’IA governance. Servono piattaforme di confronto settoriali dove condividere esperienze, discutere interpretazioni normative controverse, sviluppare best practices validate sul campo. Le associazioni di categoria come Confindustria, Assinform e Anorc possono svolgere un ruolo prezioso di aggregazione, creando working group dedicati che producano linee guida operative, template riutilizzabili, case study anonimi che documentino successi e fallimenti. Le sandbox regolamentari previste da AI Act e L. 132/2025, rappresentano spazi preziosi per sperimentazione controllata dove testare soluzioni innovative sotto supervisione delle autorità, riducendo il rischio compliance durante le fasi critiche di R&D.
Il pragmatismo regolatorio costituisce il terzo elemento determinante, un fattore che esula dal controllo delle singole organizzazioni ma che condizionerà profondamente il successo dell’intero impianto normativo. L’efficacia della Legge 132/2025 dipenderà in misura cruciale dalla capacità delle autorità di controllo – AgID, ACN, Garante Privacy – di fornire guidance operative tempestive, proporzionali, evidence-based.
Un enforcement eccessivamente rigido nelle fasi iniziali, quando le organizzazioni stanno ancora sperimentando approcci e metodologie, rischia di paralizzare l’innovazione e generare un atteggiamento difensivo che privilegia la minimizzazione del rischio legale rispetto all’adozione di tecnologie potenzialmente transformative. Un approccio più graduale, come suggerito nell’analisi per la Pubblica Amministrazione, con focus su enforcement educativo prima che sanzionatorio, può favorire una compliance effettiva e sostanziale piuttosto che cartolare e formale.
Il percorso che si apre davanti alle organizzazioni italiane è appena iniziato, e presenta sfide formidabili ma non insormontabili. I prossimi dodici mesi, durante i quali verranno emanati i decreti attuativi della L. 132/2025, saranno cruciali per definire l’interpretazione operativa della normativa. Le organizzazioni che avranno già avviato il processo di adeguamento si troveranno in posizione di vantaggio, potendo influenzare l’evoluzione interpretativa della normativa attraverso il dialogo costruttivo con le autorità e la dimostrazione di soluzioni pratiche efficaci che bilanciano innovazione e protezione.
L’intelligenza artificiale è una rivoluzione tecnologica irreversibile che sta già ridisegnando settori interi dell’economia e della società. La sfida per l’Italia non è se adottare l’IA – questo treno è già partito e non si fermerà – ma come governarla in modo che massimizzi i benefici e minimizzi i rischi. La Legge 132/2025 fornisce gli strumenti normativi, creando un framework che, per quanto perfettibile e destinato a evolversi, rappresenta comunque un punto di riferimento chiaro. Alle organizzazioni spetta tradurli in pratica organizzativa quotidiana, investendo in competenze, processi, cultura. Alle autorità spetta garantire un ecosistema regolatorio che bilanci con saggezza innovazione e protezione, evitando sia il permissivismo che aprirebbe la strada ad abusi, sia il rigorismo che soffocherebbe la sperimentazione legittima.
Ai professionisti del diritto digitale, della cybersecurity, del digital forensics, della compliance spetta costruire le competenze ibride necessarie a navigare questa complessità, posizionandosi come bridge tra il mondo tecnologico e quello legale, traducendo in linguaggi reciprocamente comprensibili esigenze che troppo spesso parlano lingue inconciliabili. L’alternativa al governo consapevole e proattivo della trasformazione è l’irrilevanza competitiva progressiva, un declino magari lento ma inesorabile. Le aziende italiane, le istituzioni, i professionisti non possono permetterselo. Il momento di agire è ora, e gli strumenti normativi e metodologici per farlo efficacemente sono disponibili. Quello che serve è la volontà di investire, la capacità di collaborare, il coraggio di sperimentare.
