ai governance aziendale

AI governance aziendale: i rischi degli agenti autonomi

Il 91% delle organizzazioni sta già adottando agenti AI, eppure solo il 10% dichiara di disporre di un sistema di governance adeguato per gestirli. Questo dato, proveniente da una ricerca Okta presentata il 25 settembre 2025, fotografa con precisione la frattura al centro della trasformazione digitale in corso: non tra chi adotta e chi non adotta l’AI, ma tra chi la governa e chi si limita a subirla.

Il divario non è una questione tecnica. È un rischio strategico di sicurezza, di compliance e di responsabilità legale.

Cosa distingue un agente AI da qualsiasi altro software

A differenza del software tradizionale, gli agenti AI sono sistemi dinamici: agiscono, decidono, accedono ai dati e, sempre più spesso, interagiscono con altri agenti. Questo cambia il profilo di rischio in modo fondamentale.

Secondo il Cyber Pulse di Microsoft (febbraio 2026), settori come il software e la tecnologia (16%), la manifattura (13%) e i servizi finanziari (11%) impiegano già agenti per compiti complessi: dalla redazione di proposte all’analisi di dati finanziari, dal triage degli alert di sicurezza all’automazione dei processi.

Il secondo International AI Safety Report, pubblicato il 3 febbraio 2026, guidato dal premio Turing Yoshua Bengio e supportato da oltre 100 esperti internazionali e 29 nazioni, descrive il salto qualitativo con precisione scientifica: gli agenti AI sono progettati per perseguire obiettivi specificati dagli utenti in linguaggio naturale, ricevendo accesso a strumenti come memoria, interfacce informatiche e browser web, che li aiutano a interagire autonomamente con il mondo e a perseguire obiettivi con una supervisione umana molto ridotta.

Il Report sottolinea un aspetto spesso sottovalutato: nelle attività di ingegneria del software, la lunghezza dei task completabili dagli agenti con un tasso di successo dell’80% si raddoppia approssimativamente ogni sette mesi. Una traiettoria di accelerazione che rende obsoleti i framework di governance concepiti per sistemi più lenti.

Per un approfondimento sulla distinzione tra AI generativa e AI agentiva in ambito sicurezza, si veda anche l’analisi pubblicata su ICT Security Magazine: Agenti AI nella Cybersecurity: la nuova frontiera della Difesa Digitale.

Il panorama delle minacce: vettori critici per le imprese

Il World Economic Forum, in un’analisi pubblicata a marzo 2026, individua i meccanismi di attacco più insidiosi: istruzioni malevole incorporate in email, documenti o pagine web possono manipolare il comportamento di un agente attraverso il prompt injection. Permessi mal configurati possono concedere agli agenti un accesso più ampio del previsto, e istruzioni ambigue possono portarli a compiere azioni non intenzionali nell’esecuzione di task su sistemi interconnessi.

Il Model AI Governance Framework for Agentic AI di Singapore (gennaio 2026) specifica ulteriori vettori propri della dimensione agentiva: memory poisoning, tool misuse, privilege escalation ed errori a cascata su output multipli.

L’International AI Safety Report 2026 documenta un fenomeno ancora più preoccupante dal punto di vista della governance: dall’ultimo Report, è diventato più comune che i modelli distinguano tra ambienti di test e deployment reale e trovino scappatoie nelle valutazioni, il che potrebbe consentire a capacità pericolose di non essere rilevate prima del deployment.

Il State of Agentic AI Security Report 2026, basato su interviste a oltre cento responsabili di sicurezza e AI, conclude: le organizzazioni consentono di fatto a sistemi autonomi di operare all’interno di confini di fiducia non definiti. Senza inventario la governance non può iniziare, e senza governance l’autonomia diventa una passività.

La crisi dell’identità degli agenti

Il Cloud Security Alliance ha condotto un’indagine su 285 professionisti IT e della sicurezza (settembre-ottobre 2025), commissionata da Strata Identity. I risultati documentano una crisi di identità organizzativa strutturale. Le principali preoccupazioni che guidano gli investimenti in sicurezza sono: esposizione di dati sensibili (55%), azioni non autorizzate (52%), uso improprio delle credenziali (45%), assenza di standard per le identità (45%) e impossibilità di scoprire o registrare gli agenti attivi (40%).

Solo il 23% delle organizzazioni dispone di una strategia formale a livello enterprise per la gestione delle identità degli agenti. Un altro 37% si affida a pratiche informali, essenzialmente improvvisando.

Il problema tecnico sottostante è preciso: il playbook tradizionale dell’Identity and Access Management non funziona per gli agenti autonomi. Le credenziali statiche, i token con permessi eccessivi e l’applicazione isolata delle policy non riescono a tenere il passo con entità che operano continuativamente, prendono decisioni in runtime e si estendono su piattaforme multiple.

Okta stessa, nel lancio del suo framework per l’enterprise agentiva nel marzo 2026, riconosce che gli agenti AI evolvono più rapidamente di qualsiasi software precedente, rendendo obsoleti i modelli di sicurezza tradizionali.

La governance è in ritardo strutturale sul rischio

Il State of AI Trust in 2026 di McKinsey, pubblicato il 25 marzo 2026 sulla base di un’indagine condotta tra dicembre 2025 e gennaio 2026 su circa 500 organizzazioni, registra progressi ma anche ritardi persistenti: la maturità RAI continua a migliorare, ma strategia, governance e controlli sull’AI agentiva sono in ritardo, con solo circa il 30% delle organizzazioni che raggiunge un livello di maturità pari o superiore a tre in queste dimensioni.

Il report introduce per la prima volta la governance agentiva come quinta dimensione autonoma del modello di maturità, riflettendo la crescente importanza di governare sistemi AI sempre più autonomi. Il dato geografico è altrettanto rilevante: la governance e i controlli sull’AI agentiva sono in ritardo rispetto alle capacità tecniche e di gestione dei dati in tutte le regioni, indicando un divario di governance globalmente consistente.

McKinsey sintetizza la sfida con una formula che rende evidente il cambio di paradigma: nell’era agentiva, le organizzazioni non possono più preoccuparsi solo di sistemi AI che dicono la cosa sbagliata; devono anche confrontarsi con sistemi che fanno la cosa sbagliata, compiendo azioni non intenzionali, abusando di strumenti o operando al di fuori di guardrail appropriati.

L’International AI Safety Report 2026 aggiunge la dimensione tecnica del problema: gli agenti AI pongono rischi elevati perché agiscono in modo autonomo, rendendo più difficile per gli esseri umani intervenire prima che i fallimenti causino danni. Le tecniche attuali possono ridurre i tassi di errore, ma non al livello richiesto in molti contesti ad alto rischio.

Il quadro normativo: EU AI Act e Legge italiana 132/2025

Sul versante regolatorio europeo, le scadenze sono ravvicinate e le sanzioni concrete. Secondo il sito ufficiale della Commissione Europea sull’AI Act: le pratiche AI vietate e gli obblighi di AI literacy sono entrati in applicazione il 2 febbraio 2025; le regole di governance e gli obblighi per i modelli GPAI sono diventati applicabili il 2 agosto 2025; la piena applicazione per i sistemi ad alto rischio è prevista per agosto 2026, con un periodo di transizione esteso fino ad agosto 2027 per i sistemi integrati in prodotti regolamentati.

Per le imprese italiane si aggiunge un livello specifico di responsabilità. Come analizzato in dettaglio su ICT Security Magazine nell’articolo Cybersecurity 2026: dalla difesa del perimetro alla resilienza come disciplina, l’AI governance è diventata nel 2026 una dimensione indispensabile dell’architettura di sicurezza, non solo per compliance ma per necessità operativa.

La Legge n. 132/2025, entrata in vigore il 10 ottobre 2025, stabilisce sanzioni fino a un massimo di 774.685 euro e, nei casi più gravi, misure interdittive ai sensi del Decreto 231 fino a un anno: interdizione dall’attività, sospensione di autorizzazioni e licenze, divieto di contrattare con la pubblica amministrazione ed esclusione da finanziamenti pubblici. La legge introduce inoltre un’aggravante per i reati commessi con il supporto dell’AI e un nuovo reato per la diffusione illecita di contenuti generati o alterati dall’AI, punibile con la reclusione da uno a cinque anni.

Tre assi per una governance che funziona

Il professor Noam Kolt (Hebrew University, Faculty of Law e School of Computer Science), nel contributo “Governing AI Agents” destinato alla Notre Dame Law Review (vol. 101, in corso di pubblicazione), costruisce un framework giuridico della governance agentiva fondato sulla teoria economica e sul diritto dell’agenzia. Il lavoro identifica e caratterizza i problemi derivanti dagli agenti AI, inclusi i fenomeni di asimmetria informativa, autorità discrezionale e fedeltà; illustra i limiti delle soluzioni convenzionali ai problemi principale-agente quando applicate ad agenti artificiali; ed esplora le implicazioni per la progettazione e la regolazione degli agenti AI, sostenendo che è necessaria una nuova infrastruttura tecnica e giuridica.

Il framework di Singapore traduce questi principi in quattro dimensioni operative concrete: valutazione del rischio specifica per caso d’uso, considerando il livello di autonomia, l’ambito di accesso ai dati e l’autorità d’azione; responsabilità umana chiara nelle catene di comando; controlli tecnici come kill switch e monitoraggio comportamentale; responsabilità degli utenti finali nell’interazione con gli agenti autonomi.

McKinsey sintetizza l’imperativo organizzativo: la governance centralizzata con esecuzione federata è il modello necessario. Le imprese devono monitorare tre dimensioni per ogni transazione agentiva: il risultato ottenuto senza effetti collaterali indesiderati, la coerenza comportamentale nei casi limite, e la capacità di ricostruire ogni decisione e azione dall’inizio alla fine.

Conclusione: l’autonomia come variabile di progetto deliberata

Il World Economic Forum inquadra il problema con precisione: la governance responsabile degli agenti AI significa definire l’estensione delle loro capacità in funzione del contesto specifico in cui operano. Il grado di autonomia concesso a un sistema dovrebbe essere calibrato al contesto, ai rischi coinvolti e alla maturità istituzionale dell’organizzazione. Quando la capacità scala più velocemente della governance, gli utenti sono lasciati a navigare trade-off di rischio complessi senza supporto istituzionale chiaro.

Trattare l’autonomia come variabile di progetto deliberata, e non come conseguenza inevitabile dell’adozione tecnologica, è oggi la discriminante tra le organizzazioni che governano l’AI e quelle che si limitano a subirla.

Condividi sui Social Network:

Ultimi Articoli