Sentenza Tribunale di Siracusa 3382026 colpa grave per uso non verificato dell'IA negli atti processuali

Sentenza Tribunale di Siracusa 338/2026: colpa grave per uso non verificato dell’IA negli atti processuali

Il Tribunale di Siracusa, con la sentenza n. 338 del 20 febbraio 2026, traccia per la prima volta in Italia uno standard di diligenza esigibile dagli operatori del diritto che usano sistemi di intelligenza artificiale generativa. La decisione si inserisce in un filone giurisprudenziale che si sta consolidando e interroga, ben oltre l’avvocatura, chiunque produca output professionali con strumenti di generative AI.

Sentenza Siracusa 338/2026: quattro precedenti di Cassazione inventati dall’IA

Alla prima lettura sembravano tutte al loro posto. Quattro precedenti della Corte di Cassazione, gli estremi completi, la sezione, l’anno, persino il numero di ruolo. Per ognuna un passaggio tra virgolette che avrebbe dovuto dare la stoccata finale e demolire l’eccezione di decadenza che l’avvocato della controparte aveva costruito con cura. Una memoria difensiva costruita con il mestiere, sostenuta da pronunce pertinenti, apparentemente inoppugnabile.

Il Giudice Unico di Siracusa, davanti a quella memoria, ha fatto quello che ogni magistrato fa quando un argomento poggia così nettamente sui precedenti: è andato a leggerli. Le banche dati in uso alla magistratura italiana restituiscono provvedimenti autentici, con il testo integrale delle motivazioni. Di quei passaggi virgolettati, però, non c’era traccia. Alcune delle sentenze richiamate esistevano davvero, ma trattavano materie diverse, in qualche caso lontanissime dalla questione in discussione; altre non risultavano affatto. I brani riportati tra virgolette, in ogni singolo caso, non figuravano in nessuna pronuncia reale. Non erano imprecisioni né errori di trascrizione: erano testi inesistenti, costruiti ex novo.

A quel punto il giudice, prima di pronunciarsi, ha provato a mettersi nei panni di chi aveva firmato quella memoria. Poteva trattarsi di un cortocircuito delle banche dati professionali? No, perché quegli strumenti indicizzano materiale autentico, non lo generano. Un errore mnemonico? Nemmeno, perché non si trattava di un numero sbagliato o di una sezione male attribuita, ma di quattro massime inventate dal nulla. Una falsificazione deliberata? Implausibile, perché nessun professionista esperto si esporrebbe a una conseguenza disciplinare così grave per un vantaggio difensivo tanto modesto.

Restava una sola spiegazione coerente con i fatti: il difensore si era affidato a uno strumento di intelligenza artificiale generativa e aveva riportato negli atti ciò che il sistema gli aveva restituito, senza verificarlo sulle fonti primarie.

Il giudizio riguardava, in origine, tutt’altro. Una società in liquidazione chiedeva oltre centosessantacinquemila euro di risarcimento a chi aveva sottoscritto, in nome di un’associazione non riconosciuta, un contratto di sublocazione poi risolto per morosità. La questione tecnica era l’applicabilità del termine di decadenza semestrale di cui all’art. 1957 c.c. alla responsabilità personale prevista dall’art. 38 c.c., un punto su cui la Cassazione si è espressa più volte in modo univoco. Proprio per superare quell’orientamento, la difesa attorea aveva bisogno di precedenti che spingessero nella direzione opposta. Ma quei precedenti non esistevano.

La sentenza n. 338/2026 rigetta integralmente la domanda e condanna l’attrice a 14.103 euro di spese legali, ad altrettanti 14.103 euro ex art. 96, comma 3, c.p.c. e a ulteriori 2.000 euro in favore della Cassa delle ammende ex art. 96, comma 4, c.p.c. Ma il cuore della decisione non è nella cifra: è nel fatto che, per la prima volta in modo così esplicito in Italia, un giudice scrive in motivazione che cosa ci si può aspettare, nel 2026, da chi fa il suo mestiere usando un Large Language Model.

Colpa grave per uso acritico dell’IA: la nuova diligenza professionale

Il passaggio motivazionale che rende la decisione un punto di svolta è la qualificazione giuridica dell’errore. Il giudice afferma che costituisce ormai fatto notorio, acquisito alla generalità dei consociati e certamente esigibile da un operatore professionale del diritto, che i modelli di IA generativa non sono banche dati giurisprudenziali da cui estrarre precedenti, bensì strumenti di generazione automatica del linguaggio fondati su meccanismi inferenziali di natura statistica e probabilistica.

Tali sistemi, ricorda la sentenza, non sannoricordano alcunché, ma producono sequenze di testo statisticamente plausibili sulla base di miliardi di parametri di addestramento, senza avere accesso, ordinariamente, ad alcuna base di conoscenza verificata o verificabile. È proprio per questo che sono soggetti al fenomeno delle c.d. hallucinations, ossia alla generazione di contenuti formalmente plausibili ma sostanzialmente falsi o inesistenti.

Da questa premessa tecnica discende la qualificazione giuridica. L’utilizzo acritico di tali strumenti, senza la doverosa verifica dell’attendibilità degli output mediante consultazione delle fonti primarie, integra gli estremi della colpa grave. Il passaggio è decisivo perché sposta l’asticella della diligenza professionale: non basta più scusarsi con un malfunzionamento tecnico, perché il rischio di hallucination è, nel 2026, parte della conoscenza ordinaria che ci si attende da chi esercita una professione regolamentata.

Da Firenze a Milano: la giurisprudenza italiana sulle allucinazioni dell’IA

La decisione siracusana non nasce nel vuoto. Il primo precedente italiano conosciuto è l’ordinanza del 14 marzo 2025 del Tribunale delle Imprese di Firenze, che affrontò una comparsa di costituzione contenente alcune sentenze di Cassazione inesistenti, prodotte da una collaboratrice di studio tramite ChatGPT e non verificate prima del deposito. In quel caso il collegio fiorentino escluse la responsabilità aggravata ex art. 96 c.p.c., ritenendo assenti il dolo e il danno concreto, ma riconobbe espressamente il disvalore dell’omessa verifica.

Nei mesi successivi la giurisprudenza di merito si è fatta più rigorosa. Il Tribunale di Torino, Sezione Lavoro, con sentenza n. 2120 del 16 settembre 2025, ha censurato un ricorso redatto “col supporto dell’intelligenza artificiale” e costruito, nelle parole del giudice, su “un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti”, riconoscendo la responsabilità aggravata ex art. 96, commi 3 e 4, c.p.c. A pochi giorni di distanza, il Tribunale di Latina con sentenza n. 1037 del 23 settembre 2025 ha deciso in senso analogo, in una serie di pronunce gemelle che hanno colpito ricorsi seriali redatti “a stampone”.

In ambito amministrativo, la sentenza n. 3348 del 21 ottobre 2025 del TAR Lombardia, Sezione V, ha affrontato un ricorso contro la bocciatura di una studentessa di liceo: nell’atto introduttivo, tutte le citazioni giurisprudenziali a sostegno dell’illegittimità dei provvedimenti impugnati risultavano inesistenti o riferite a orientamenti non noti. Il difensore, messo davanti all’evidenza in udienza, ha ammesso di essersi avvalso di strumenti di ricerca basati su IA. Il TAR ha respinto il ricorso, condannato alle spese e, soprattutto, disposto la trasmissione della sentenza all’Ordine degli Avvocati di Milano per le valutazioni disciplinari di competenza, aprendo un fronte deontologico ulteriore rispetto a quello processuale.

Vale la pena notare che anche la Terza Sezione Penale della Corte di Cassazione, con sentenza n. 25455/2025, ha annullato con rinvio una pronuncia della Corte d’Appello di Torino in materia di reati tributari, rilevando che la motivazione faceva riferimento “a principi di legittimità non affermati o a sentenze di questa Corte inesatte nel numero riportato”: un segnale che il fenomeno comincia a riguardare anche la funzione giudicante.

La pronuncia di Siracusa, dunque, si innesta su questa linea e la porta a un nuovo grado di chiarezza: la colpa grave non è un giudizio di valore, ma la conseguenza della violazione di un obbligo di verifica tecnicamente definito.

Allucinazioni IA in tribunale: oltre 1.300 casi documentati nel mondo

Che il caso siracusano non sia un episodio locale è confermato dai numeri. Il database di Damien Charlotin, ricercatore presso lo Smart Law Hub di HEC Paris, nel maggio 2025 registrava 116 casi in dodici Paesi (Stati Uniti, Israele, Regno Unito, Canada, Australia, Brasile, Paesi Bassi, Italia, Irlanda, Spagna, Sudafrica, Trinidad e Tobago); ad aprile 2026 i casi documentati superano quota 1.300, di cui circa 800 negli Stati Uniti, con rilevazioni che registrano fino a 17 decisioni statunitensi in un singolo giorno.

Le sanzioni crescono in proporzione: un tribunale federale in Oregon ha disposto 109.700 dollari di sanzioni e spese complessive a carico di un singolo avvocato in un caso di citazioni generate dall’IA, cifra riportata come record aggregato negli Stati Uniti. Un’analisi condotta dal Center for Internet and Society di Stanford su 114 casi statunitensi, sulla base degli stessi dati, mostra che il 90% degli studi coinvolti sono solo practice o piccoli studi, e che, nei casi in cui è stato possibile identificare il sistema usato, la metà riguarda una versione di ChatGPT.

Il caso fondativo resta Mata v. Avianca (S.D.N.Y., 22 giugno 2023), nel quale il giudice P. Kevin Castel sanzionò con 5.000 dollari in solido due avvocati e il loro studio per aver depositato sei precedenti inesistenti generati da ChatGPT, ritenendo che il comportamento integrasse subjective bad faith soprattutto per aver insistito sulle citazioni anche dopo che la controparte ne aveva contestato l’esistenza. È lo stesso schema che si ritrova, con variazioni, in quasi tutti i casi successivi.

Legge 132/2025 art. 13: gli obblighi per i professionisti che usano l’IA

La sentenza siracusana arriva pochi mesi dopo l’entrata in vigore della Legge 23 settembre 2025, n. 132, il primo intervento organico italiano in materia di intelligenza artificiale, che si affianca al Regolamento (UE) 2024/1689 (AI Act). L’articolo 13 della legge introduce due principi che incidono direttamente sul tema. Il primo stabilisce che l’uso dei sistemi di IA nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto, con prevalenza del lavoro intellettuale oggetto della prestazione d’opera. Il secondo impone al professionista di comunicare al destinatario della prestazione, con linguaggio chiaro, semplice ed esaustivo, le informazioni relative ai sistemi di IA utilizzati.

Non si tratta di un obbligo meramente formale. La disposizione, letta insieme alla giurisprudenza che si sta consolidando, disegna un modello in cui l’avvocato (ma lo stesso vale per il consulente, l’ingegnere, il commercialista) resta titolare pieno della prestazione intellettuale, e la firma sull’atto vale come assunzione di responsabilità per tutto ciò che è stato prodotto, a prescindere dal fatto che il testo sia stato redatto personalmente, da un collaboratore o da un Large Language Model.

Il Consiglio Nazionale Forense ha diffuso un modello di informativa tipo da consegnare al cliente all’atto del mandato, mentre l’Ordine degli Avvocati di Milano aveva anticipato il tema già a dicembre 2024 con la Carta dei principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense (progetto “Horos”), richiamata per la prima volta in una sentenza proprio dal TAR Lombardia nella pronuncia n. 3348/2025.

A completare il quadro, la Guida del Consiglio degli Ordini Forensi Europei (CCBE, 2 ottobre 2025) ribadisce i doveri di riservatezza, competenza e lealtà, con particolare attenzione al rischio che l’inserimento di dati dei clienti in piattaforme di IA pubbliche violi il segreto professionale.

Shadow AI in azienda: tre livelli di rischio per CISO e compliance

Per chi si occupa di information security e governance aziendale, la vicenda siracusana è un caso da manuale di shadow AI, ossia l’uso di sistemi di intelligenza artificiale al di fuori di qualsiasi policy, autorizzazione o supervisione organizzativa. Il fenomeno presenta tre livelli di rischio concorrenti che la vicenda siracusana illustra perfettamente.

Il primo è il rischio di output inaffidabile. Gli LLM non consultano una base di conoscenza verificata: producono testo probabilisticamente plausibile. Ciò vale per le citazioni giurisprudenziali come per le citazioni bibliografiche, i riferimenti normativi, i dati numerici, gli standard tecnici, gli articoli di contratto. In un contesto professionale in cui la sottoscrizione vale come assunzione di paternità, utilizzare un output non verificato significa trasferire il rischio di hallucination dal modello al professionista.

Il secondo è il rischio di data leakage. L’inserimento di dati personali, segreti commerciali, atti processuali, pareri legali, documentazione classificata o credenziali nei prompt di sistemi consumer comporta, in assenza di garanzie contrattuali adeguate, un potenziale trasferimento illecito ex GDPR, un’erosione del segreto professionale e una perdita di controllo sul ciclo di vita dell’informazione (retention, training, accesso di terzi). Non è un rischio teorico: il Garante italiano ha già avviato procedimenti in materia, e le sanzioni del GDPR possono raggiungere il 4% del fatturato mondiale annuo.

Il terzo è il rischio di compliance e audit trail. Se un’organizzazione non sa quali strumenti di IA sono usati dai propri professionisti, con quali dati e per quali decisioni, non è in condizione di documentare la formazione del personale, le misure di sicurezza adottate, i processi decisionali. In caso di ispezione, di contenzioso, di due diligence M&A, l’assenza di governance sull’IA è un segnale che può compromettere l’operazione e, negli scenari peggiori, aggravare la posizione dell’ente rispetto ai rischi sopra citati.

Governance dell’IA generativa: tre lezioni per studi legali e imprese

Il caso siracusano, letto da una prospettiva di cybersecurity e risk management, suggerisce tre considerazioni di metodo che valgono ben oltre l’avvocatura.

In primo luogo, il perimetro dell’obbligo di verifica si sta definendo in concreto attraverso la giurisprudenza, non solo attraverso la normativa. Il principio di prevalenza del lavoro intellettuale dell’art. 13 della L. 132/2025 è un’enunciazione programmatica; è nelle pronunce di merito che sta emergendo il contenuto operativo di quell’obbligo. Lo standard minimo, oggi, è: conoscere i limiti degli LLM, verificare ogni citazione sulle fonti primarie, tracciare l’uso dell’IA in forma documentabile. L’ignoranza di questo standard non è un’attenuante ma, secondo il Tribunale di Siracusa, un indicatore di colpa grave.

In secondo luogo, la distinzione fra uso individuale e uso organizzativo dell’IA si sta dissolvendo sul piano della responsabilità. Un singolo professionista che usi ChatGPT nel suo studio espone sé stesso, il proprio cliente e, potenzialmente, anche l’organizzazione in cui opera. Per uno studio legale, un ente pubblico, un’impresa regolata, la shadow AI non è più un problema IT da delegare al tecnico di fiducia: è un tema di board, che coinvolge legal, compliance, privacy, security, procurement, HR, internal audit.

In terzo luogo, le misure di mitigazione sono note e non particolarmente esotiche. Censimento degli strumenti effettivamente in uso, classificazione degli usi consentiti e vietati, regole esplicite sui dati che non possono entrare nei prompt, valutazione dei fornitori di IA come critical third parties, logging delle interazioni con sistemi di IA, formazione differenziata per ruoli, gestione degli incidenti AI-related come potenziali data breach, responsabilizzazione del management. Il tutto integrato nei processi già esistenti di sicurezza, protezione dati e conformità NIS2.

La vera lezione della sentenza di Siracusa non riguarda il singolo caso e nemmeno solo l’avvocatura. Riguarda il fatto che, in un ordinamento che sta imparando a qualificare giuridicamente il rischio di hallucination, il costo dell’assenza di governance sull’IA generativa sta rapidamente superando il costo di implementarla. È un passaggio che i CISO e i compliance officer stanno già osservando in altri settori regolati: la regola ricorrente è che, quando un rischio tecnologico diventa fatto notorio, chi non lo ha presidiato paga di più di chi ci aveva investito per tempo.

Condividi sui Social Network:

Ultimi Articoli