LLM sovrani europei: chi guida la corsa all’intelligenza artificiale indipendente
LLM sovrani europei non è più un’espressione da convegno accademico. È diventata una priorità strategica concreta, con miliardi di euro in gioco, supercomputer in fase di accensione e un ecosistema industriale che – tra luci e ombre – sta prendendo forma. Il 2025 ha segnato un punto di svolta: l’Europa è passata dalla retorica della sovranità digitale alla costruzione effettiva di modelli linguistici di grandi dimensioni sotto giurisdizione europea, addestrati su infrastruttura europea, con dati e governance europei.
Ma la domanda che ogni CISO, security architect e responsabile compliance dovrebbe porsi oggi non è se l’Europa stia costruendo i propri LLM. È se quello che sta costruendo sia sufficiente, in tempo, e soprattutto se risponda alle esigenze operative di chi deve proteggere organizzazioni critiche in un contesto geopolitico sempre più instabile.
Questo articolo offre un’analisi critica dello stato dell’arte, dei protagonisti e delle vulnerabilità strutturali della corsa europea all’intelligenza artificiale indipendente.
Perché i LLM sovrani europei sono una questione di sicurezza nazionale
Per comprendere l’urgenza, è necessario partire da un dato di fatto scomodo: oggi, la quasi totalità dei modelli di intelligenza artificiale generativa utilizzati da aziende, governi e infrastrutture critiche europee è sviluppata e controllata da aziende statunitensi o cinesi. OpenAI, Anthropic, Google, Meta e, dall’altro lato, Alibaba e DeepSeek detengono il monopolio di fatto sulla tecnologia che sta ridefinendo il modo in cui le organizzazioni processano informazioni, prendono decisioni e automatizzano operazioni sensibili.
Questa dipendenza presenta tre rischi concreti per i professionisti della sicurezza:
- Rischio giurisdizionale. I modelli proprietari statunitensi sono soggetti al CLOUD Act e al FISA 702, che autorizzano l’accesso ai dati da parte delle autorità americane indipendentemente da dove questi siano fisicamente archiviati. Come ha dimostrato il caso del kill switch Microsoft-ICC nel 2025, la conformità giuridica di un fornitore extra-europeo può essere revocata con un ordine esecutivo presidenziale.
- Rischio di lock-in cognitivo. Quando un’organizzazione integra un LLM proprietario nei propri flussi decisionali – dalla classificazione di incidenti SOC alla generazione di report di compliance – crea una dipendenza che va oltre il software. I bias del modello, le sue priorità linguistiche e le sue lacune culturali diventano parte del tessuto operativo dell’organizzazione.
- Rischio di interruzione. Un modello ospitato su infrastruttura cloud statunitense può essere sospeso, degradato o sottoposto a restrizioni in qualsiasi momento, per ragioni commerciali, politiche o sanzionatorie. Per un SOC che ha integrato l’AI nella propria pipeline di threat detection, un’interruzione improvvisa non è un inconveniente: è un incidente di sicurezza.
È in questo contesto che la costruzione di LLM sovrani europei acquisisce una rilevanza diretta per la cybersecurity.
La mappa dei protagonisti: chi costruisce davvero l’AI europea
Mistral AI: il campione francese tra apertura e ambizione infrastrutturale
Mistral AI è, senza discussione, il protagonista più visibile della corsa europea. Fondata nell’aprile 2023 da ex ricercatori di Google DeepMind e Meta – Arthur Mensch, Guillaume Lample e Timothée Lacroix – l’azienda parigina ha bruciato le tappe con una velocità che non ha precedenti nel panorama tecnologico europeo.
A febbraio 2026, Mistral è il primo e unico attore europeo capace di competere direttamente con i modelli di frontiera americani. Il suo modello di punta, Mistral Large 3, con 675 miliardi di parametri in architettura Mixture-of-Experts (MoE), finestra di contesto da 256K token e licenza Apache 2.0, rappresenta il punto più avanzato mai raggiunto dall’AI europea. I benchmark indipendenti lo collocano in competizione diretta con GPT-4 e Claude su numerosi task, con un vantaggio significativo nell’efficienza computazionale e nel supporto multilingue.
Ma il dato più rilevante per chi si occupa di sicurezza è la strategia infrastrutturale. Nel settembre 2025, ASML ha investito 1,3 miliardi di euro nella Serie C di Mistral, portando la valutazione a 11,7 miliardi di euro e acquisendo l’11% della società. Non è un semplice investimento finanziario: è un’alleanza strategica tra il campione europeo della litografia a ultravioletti estremi (indispensabile per la produzione di chip avanzati) e il campione europeo dell’AI. ASML siede ora nel comitato strategico di Mistral.
Come ha dichiarato il CTO Timothée Lacroix in una recente conferenza a Marsiglia, Mistral sta costruendo il proprio data center a Eclairion (Essonne, regione parigina) e punta a una distribuzione del compute a livello europeo, con capacità localizzate nei paesi nordici dove l’energia è più economica e pulita. A febbraio 2026, Mistral ha annunciato un investimento di 1,2 miliardi di euro in infrastruttura digitale in Svezia, inclusi data center AI dedicati – un segnale inequivocabile della transizione da puro sviluppatore di modelli a player infrastrutturale. L’obiettivo dichiarato: non dipendere più dai cloud provider americani per l’addestramento e l’inferenza dei propri modelli.
Sul fronte commerciale, il CEO Arthur Mensch ha dichiarato al Forum Economico di Davos a gennaio 2026 che l’azienda prevede di superare il miliardo di euro di ricavi entro fine anno, una crescita di 25 volte rispetto all’anno precedente, con centinaia di milioni in contratti firmati con clienti enterprise come BNP Paribas, AXA e Stellantis. Mistral ha anche stanziato un miliardo di euro per acquisizioni strategiche.
La forza di Mistral per i CISO risiede in tre elementi: la licenza Apache 2.0, che consente il deployment on-premise completo senza dipendenze esterne; l’architettura ottimizzata per l’efficienza, che rende il self-hosting economicamente praticabile anche per organizzazioni di medie dimensioni; e l’esplicito posizionamento come alternativa sovrana, con supporto nativo per il deployment su infrastruttura proprietaria.
Aleph Alpha: il pivot tedesco dalla frontiera all’enterprise sovrano
La storia di Aleph Alpha è radicalmente diversa, e per certi versi più istruttiva. Fondata a Heidelberg nel 2019 con l’ambizione dichiarata di essere “la risposta europea a OpenAI”, l’azienda ha raccolto oltre 500 milioni di dollari, prodotto modelli multilingue della famiglia Luminous e costruito una narrativa centrata sulla ricerca di frontiera.
Poi, tra il 2023 e il 2025, è avvenuto un pivot strategico che ha ridefinito il suo ruolo nell’ecosistema. Di fronte all’impossibilità di competere con Mistral (valutazione 24 volte superiore) e con i colossi americani sul piano dei modelli generalisti, Aleph Alpha ha scelto una traiettoria diversa: diventare il fornitore di AI sovrana per il settore pubblico e le industrie regolamentate tedesche.
A ottobre 2025, il fondatore Jonas Andrulis ha lasciato la posizione di CEO. Il controllo è passato a figure provenienti dall’orbita del Gruppo Schwarz – il conglomerato europeo della grande distribuzione (Lidl, Kaufland) – che attraverso la sua divisione tecnologica Schwarz Digits e il cloud sovrano STACKIT ha costruito un’integrazione verticale con Aleph Alpha. La piattaforma PhariaAI – il sistema operativo per AI generativa dell’azienda – gira nativamente su STACKIT, formando uno stack AI sovrano end-to-end interamente sotto giurisdizione tedesca.
Per i professionisti della sicurezza, il modello Aleph Alpha/STACKIT è particolarmente interessante perché offre qualcosa che i modelli generalisti non possono garantire: spiegabilità integrata (explainability) con tracciabilità degli output, deployment completamente on-premise su infrastruttura certificata, e compliance nativa con GDPR e AI Act. L’azienda ha già contratti quadro con la BWI (il fornitore IT delle Forze Armate tedesche) e con l’Agenzia Federale per l’Impiego.
Il limite di Aleph Alpha è altrettanto chiaro: non compete e non competerà sul piano della performance generalista. Chi cerca un modello europeo per sostituire GPT-4 in task aperti non lo troverà qui. Chi cerca un sistema AI verificabile, auditabile e deployabile su infrastruttura sovrana per applicazioni critiche nel settore pubblico, finanziario o della difesa, sì.
EuroLLM: il modello paneuropeo delle 24 lingue
Il progetto EuroLLM, coordinato da Unbabel e dall’Instituto Superior Técnico di Lisbona insieme a università di Edimburgo, Parigi-Saclay e Amsterdam, rappresenta un approccio radicalmente diverso: un LLM open-source finanziato da fondi pubblici europei, addestrato su infrastruttura EuroHPC, progettato per servire tutte le 24 lingue ufficiali dell’UE.
L’ultima versione, EuroLLM-22B, è stata addestrata su circa 4 trilioni di token utilizzando 400 GPU NVIDIA H100 sul supercomputer MareNostrum 5 del Barcelona Supercomputing Center grazie a un grant EuroHPC di accesso extreme-scale. A differenza dei modelli commerciali, tipicamente addestrati con l’80-90% di dati in inglese, EuroLLM utilizza una distribuzione bilanciata al 50% inglese e 50% altre lingue europee.
I benchmark mostrano che EuroLLM-22B è il miglior modello europeo completamente aperto per task multilingue, competitivo con Gemma-3-27B di Google e Qwen-3-32B di Alibaba nelle lingue europee, e superiore nelle traduzioni intra-europee. Il progetto ha ricevuto oltre 60.000 download su Hugging Face nelle settimane successive al lancio.
Per i CISO europei, EuroLLM rappresenta una risorsa strategica specifica: un modello verificabile, con dataset di addestramento documentato e trasparente, che può essere fine-tunato per applicazioni specifiche – dalla classificazione multilingue di incidenti alla generazione di documentazione di compliance nelle lingue locali – senza alcuna dipendenza da provider extra-europei.
L’ecosistema italiano: Minerva, Velvet e Modello Italia
L’Italia sta costruendo un ecosistema di LLM sovrani europei particolarmente vivace, ancorato al supercomputer Leonardo del CINECA (Bologna), uno dei più potenti in Europa.
Minerva 7B, sviluppato dal gruppo Sapienza NLP guidato dal Prof. Roberto Navigli nell’ambito del progetto FAIR finanziato con fondi PNRR, è il primo LLM italiano addestrato from scratch su dati nativi italiani: 7,4 miliardi di parametri, 2,5 trilioni di token, metà in italiano. Velvet di Almawave punta su sostenibilità e applicazioni verticali in sanità, finanza e PA. Modello Italia di iGenius è orientato all’automazione della pubblica amministrazione. A febbraio 2025, la startup ASC27 ha presentato Vitruvian-1, un’ulteriore entry nel panorama.
Il valore di questi modelli non sta nella competizione con i giganti generalisti, ma nella specializzazione linguistica e culturale per un mercato specifico. Un modello addestrato nativamente in italiano comprende le sfumature della normativa italiana, della documentazione amministrativa, della terminologia tecnica settoriale in modo che nessun modello anglofono fine-tunato potrà mai eguagliare.
L’infrastruttura: il tallone d’Achille della sovranità
La dipendenza dai chip NVIDIA
Parlare di LLM sovrani europei senza affrontare la questione dell’infrastruttura hardware è come progettare una fortezza senza considerare chi controlla l’approvvigionamento di acciaio. NVIDIA detiene una quota stimata dell’86% del mercato globale delle GPU per AI. Ogni AI Factory europea, ogni gigafactory prevista dal piano InvestAI, ogni supercomputer EuroHPC funziona con processori progettati a Santa Clara, California.
Come ha documentato un’analisi di Defence24, l’Europa è intrappolata in una doppia dipendenza: dagli Stati Uniti per la progettazione dei chip AI (NVIDIA), e dalla Cina per le terre rare necessarie alla loro produzione. Entrambe le potenze utilizzano sempre più questa leva come strumento geopolitico. L’AI GAIN Act, attualmente in discussione al Congresso americano, potrebbe imporre ai produttori di chip di dare priorità ai clienti domestici prima di esportare – una prospettiva che renderebbe le gigafactory europee ostaggio delle priorità di Washington.
La risposta europea è in costruzione: il Chips Act 2.0, annunciato nel settembre 2025, punta a portare la quota europea di produzione globale di semiconduttori dal 10% attuale al 20% entro il 2030, con oltre 80 miliardi di euro di investimenti già attratti. Axelera AI, startup olandese, ha ottenuto fino a 61,6 milioni di euro dall’EuroHPC JU nel marzo 2025 per sviluppare chip di inferenza AI basati su architettura Digital In-Memory Computing. Ma i tempi di maturazione industriale dei semiconduttori si misurano in lustri, non in trimestri.
EuroHPC: 19 AI Factory e la promessa delle gigafactory
Sul fronte del compute, l’Europa sta compiendo un investimento senza precedenti. A febbraio 2026, sono state selezionate 19 AI Factory distribuite in tutta l’UE, con 9 nuovi supercomputer ottimizzati per l’AI in fase di approvvigionamento e deployment. Gli investimenti complessivi in supercalcolo e AI Factory raggiungeranno i 10 miliardi di euro nel periodo 2021-2027, più che triplicando la capacità di calcolo AI di EuroHPC.
Il passo successivo sono le AI Gigafactory: strutture da almeno 100.000 chip AI di ultima generazione ciascuna, paragonabili alle infrastrutture dei maggiori player AI globali. Il fondo InvestAI da 20 miliardi di euro finanzierà 4-5 gigafactory. La base giuridica è stata completata nel gennaio 2026 con il Regolamento del Consiglio 2026/150.
Per i professionisti della sicurezza, questa infrastruttura pubblica rappresenta un’opportunità concreta: accesso a risorse di calcolo per addestrare e fine-tunare modelli sovrani senza ricorrere a cloud provider extra-europei. Le AI Factory sono accessibili a startup, PMI, ricercatori e pubbliche amministrazioni di tutta Europa attraverso il punto di accesso unico EuroHPC JU.
Il quadro regolatorio: AI Act, DORA e il vantaggio competitivo della compliance
L’Europa ha scelto una strada diversa rispetto a USA e Cina: regolamentare prima, costruire in parallelo. L’AI Act, entrato in vigore il 1° agosto 2024 e in fase di implementazione progressiva fino al 2 agosto 2027, impone obblighi di trasparenza, testing e reporting degli incidenti per i modelli di AI general-purpose considerati a rischio sistemico.
Questo quadro regolatorio, spesso criticato come freno all’innovazione, costituisce in realtà un vantaggio strutturale per i LLM sovrani europei. Mistral, con le sue licenze Apache 2.0 e l’architettura aperta, è nativamente conforme ai requisiti di trasparenza. EuroLLM, con i suoi dataset documentati e verificabili, soddisfa le esigenze di tracciabilità. PhariaAI di Aleph Alpha, con la sua spiegabilità integrata, è progettata specificamente per gli ambienti regolamentati.
Al contrario, i modelli proprietari americani – le cui architetture, dataset di addestramento e processi decisionali rimangono opachi – dovranno affrontare costi di compliance crescenti per operare nel mercato europeo. È una dinamica che potrebbe accelerare l’adozione di alternative europee, soprattutto nei settori regolamentati.
Il DORA (Digital Operational Resilience Act), applicabile dal gennaio 2025, aggiunge un ulteriore livello: le entità finanziarie devono ora valutare il rischio di concentrazione ICT e disporre di strategie di uscita per i fornitori critici. Un istituto finanziario che integri un LLM proprietario americano nei propri processi decisionali senza avere un piano B operativo potrebbe trovarsi in violazione del DORA.
Analisi critica: i limiti strutturali che nessuno vuole ammettere
Il gap di scala resta enorme
Onestà intellettuale impone di riconoscere che la distanza tra l’ecosistema europeo e quello americano è ancora abissale. I 380 miliardi di dollari spesi dai soli hyperscaler americani in infrastruttura AI nel 2025 equivalgono a circa il doppio dell’intero piano InvestAI decennale europeo. Google dispone di 1 milione di GPU H100-equivalenti, Microsoft di 700.000. Le AI Factory europee, pur rappresentando un salto qualitativo, operano su ordini di grandezza inferiori.
Mistral, con i suoi 11,7 miliardi di euro di valutazione, vale circa un quinto di Anthropic e un ventesimo di OpenAI. Il budget totale di OpenEuroLLM – il grande progetto consortile europeo – è di 37,4 milioni di euro, meno di quanto un singolo hyperscaler americano spende in una settimana di addestramento.
La frammentazione come rischio e opportunità
L’Europa ha scelto un modello distribuito – un ecosistema di attori diversi (Mistral, Aleph Alpha, EuroLLM, modelli nazionali) anziché un singolo campione – che presenta rischi di frammentazione ma anche vantaggi. La diversità di approcci (commerciale, accademico, settore pubblico) crea ridondanza e resilienza. Ma la mancanza di coordinamento può tradursi in duplicazione di sforzi e dispersione di risorse.
L’assenza di Mistral dal consorzio OpenEuroLLM – confermata dal coordinatore Jan Hajič, che ha dichiarato di aver tentato senza successo di coinvolgere la startup – è un segnale preoccupante. Se il campione europeo più competitivo opera in parallelo anziché in sinergia con l’iniziativa pubblica paneuropea, il rischio è di avere due ecosistemi che non comunicano.
Il paradosso della “sovranità parziale”
Un LLM può essere europeo nel codice, nei dati e nella governance, ma se gira su GPU NVIDIA, su nodi di rete Cisco e si connette attraverso cavi sottomarini di proprietà americana, quanto è realmente sovrano? La sovranità tecnologica è una catena, e la robustezza di quella catena è determinata dall’anello più debole.
L’investimento di ASML in Mistral suggerisce una consapevolezza di questo problema: collegare la capacità AI europea a quella litografica è un primo passo verso l’integrazione verticale. Ma la strada verso un chip AI interamente europeo è ancora lunga, e nel frattempo la dipendenza da NVIDIA resta un punto di vulnerabilità strutturale.
LLM sovrani europei: implicazioni operative per i CISO
Al di là dell’analisi strategica, i professionisti della sicurezza informatica hanno bisogno di indicazioni operative concrete. Ecco cinque azioni prioritarie:
- Valutare il rischio giurisdizionale dei modelli AI in uso. Ogni LLM integrato nei processi operativi dovrebbe essere classificato in base alla giurisdizione del provider, al framework legale applicabile e al rischio di interruzione geopolitica. Un modello ospitato su Azure è soggetto al CLOUD Act indipendentemente dalla localizzazione del data center.
- Costruire una strategia di AI multi-model. Così come il multi-cloud è diventato best practice per la resilienza infrastrutturale, il multi-model è la risposta alla concentrazione del rischio AI. Affiancare un modello commerciale americano per i task generalisti con un LLM europeo (Mistral, EuroLLM) per i task sensibili crea ridondanza e flessibilità.
- Sperimentare il self-hosting con modelli aperti. Mistral Large 3, EuroLLM-22B e Minerva sono tutti disponibili in licenza aperta. Testare il deployment on-premise su infrastruttura proprietaria consente di valutare concretamente la fattibilità operativa della sovranità AI, identificando gap di performance e costi reali.
- Integrare l’AI nella valutazione del rischio di supply chain. Il DORA e la NIS2 impongono già la valutazione del rischio di concentrazione per i fornitori ICT critici. I modelli AI utilizzati in processi decisionali o operativi rientrano pienamente in questa categoria e devono essere inclusi nei registri dei fornitori e nei piani di continuità.
- Monitorare attivamente le AI Factory EuroHPC. Le AI Factory offrono accesso a risorse di calcolo sovrane per addestrare modelli personalizzati. Per le organizzazioni che operano in settori regolamentati, questa infrastruttura pubblica può rappresentare un’alternativa concreta al cloud americano per i workload AI sensibili.
Lo scenario prospettico: tre traiettorie possibili
Guardando al 2027-2030, tre scenari si delineano per i LLM sovrani europei.
Scenario 1: Dual stack europeo. L’esito più probabile. Gli hyperscaler americani continuano a dominare i workload generalisti e l’AI consumer, mentre i modelli europei si consolidano come standard per settore pubblico, difesa, sanità, finanza e infrastrutture critiche. Mistral evolve in un player globale con forte base europea. Aleph Alpha, EuroLLM e i modelli nazionali servono le nicchie sovrane. Il CISO opera in un ambiente ibrido, con politiche differenziate per tipo di workload.
Scenario 2: Accelerazione sovrana. Un’escalation geopolitica – nuove sanzioni, restrizioni all’export di chip, un “Schrems IV” che invalida il Data Privacy Framework – accelera la migrazione verso soluzioni europee. Le gigafactory entrano in produzione, il Chips Act 2.0 inizia a ridurre la dipendenza da NVIDIA, e l’ecosistema europeo raggiunge massa critica. Lo scenario più favorevole per la sovranità, ma anche il più dipendente da fattori esogeni.
Scenario 3: Compliance theatre. Lo scenario pessimistico. I requisiti di sovranità vengono diluiti sotto pressione lobbistica, gli hyperscaler americani cooptano il linguaggio della sovranità attraverso offerte “sovereign cloud” di facciata, e l’ecosistema europeo rimane frammentato e sottofinanziato. I LLM sovrani europei esistono ma restano marginali, utilizzati più come strumento di compliance formale che come reale alternativa tecnologica.
Conclusione: la sovranità AI è una scelta architetturale
I LLM sovrani europei non sono una soluzione magica alla dipendenza tecnologica. Non elimineranno da un giorno all’altro il gap di scala con gli Stati Uniti, non sostituiranno GPT-5 nelle capacità generaliste, e non risolveranno il problema della dipendenza dai chip NVIDIA. Ma rappresentano qualcosa di fondamentale: la possibilità di una scelta architetturale per le organizzazioni europee.
Per la prima volta, un CISO europeo può costruire una pipeline AI che non dipende interamente da provider soggetti a giurisdizioni extra-europee. Può scegliere un modello aperto, verificabile, deployabile su infrastruttura sotto il proprio controllo. Può pianificare una strategia di AI che sia resiliente non solo ai cyber attack, ma anche ai rischi geopolitici e regolatori.
I LLM sovrani europei non sono la destinazione. Sono l’infrastruttura che rende possibile il viaggio verso una sicurezza informatica che non sia ostaggio delle decisioni altrui. Il momento di iniziare a costruire quella strada è adesso.
Fonti principali:
ASML Investment in Mistral AI, settembre 2025
DirectIndustry – Mistral AI’s Ambitious Strategy, dicembre 2025
Aleph Alpha-STACKIT Partnership, maggio 2025
StartupRad – Aleph Alpha Schwarz Group Alliance, ottobre 2025
EuroLLM – Sito ufficiale e Hugging Face
Hugging Face – EuroLLM-22B Technical Report
Fondazione FAIR – Minerva 7B, novembre 2024
Commissione Europea – AI Factories
AI Continent Action Plan, aprile 2025
DCD – EU Allocates €20bn for AI Gigafactories, febbraio 2025
Defence24 – Europe’s AI Chip Dependency, ottobre 2025
TechCrunch – OpenEuroLLM Digital Sovereignty, febbraio 2025
Cambridge Core – Sovereign AI in 2025
Commissione Europea – EU LLM per le lingue ufficiali
The Register – Europe Cuts US Digital Umbilical Cord, dicembre 2025
First AI Movers – Mistral 3 vs Llama 3.1, gennaio 2026
Open Future – Who Controls Europe’s AI Future
CNBC – Mistral AI Infrastructure Sweden, febbraio 2026
Maddyness – Mistral AI Revenue Forecast, gennaio 2026

