Intelligenza Artificiale e Cybersecurity: sinergia per un futuro sicuro
L’evoluzione della minaccia cibernetica, unita alla complessità degli attacchi, richiede un approccio sempre più complesso e mutevole.
La necessità di correlare dati e informazioni è divenuta fondamentale per identificare e contrastare rapidamente le attività malevole: in questo contesto, l’Intelligenza Artificiale (AI) emerge come una tecnologia abilitante in grado di ottimizzare la velocità e l’efficacia delle risposte.
La correlazione di dati e informazioni è la base dell’Intelligence, anche nel mondo cibernetico.
Come noto a tutti gli operatori del settore, la Cyber Intelligence si basa sulla correlazione di dati e informazioni provenienti da fonti diverse. Ad esempio il rilevamento di piccoli cambiamenti o anomalie nei dati di rete potrebbe segnalare attività sospette che, se prese singolarmente, potrebbero non avere particolare significato.
Tale correlazione consente di individuare minacce nascoste, spesso dissimulate tra normali flussi di dati. Questo tipo di attività, se affidata all’essere umano, richiede esperienza per entrare nel merito di ogni singolo evento, nonché capacità di rilevare scostamenti minimi negli indicatori. Tutto questo richiede innanzitutto una formazione molto ampia su tematiche che vanno dai processi alle tecnologie e, successivamente, un addestramento continuo nel rilevare anomalie rispetto alle condizioni di funzionamento normalmente chiamate “Standard” o “Regolari”.
Un esempio pratico è il supporto alla ricostruzione in diagrammi della sequenza di azioni eseguite da un programma (aka “file eseguibile”) e di come quest’ultimo si comporti.
I produttori di cybersecurity a livello internazionale stanno sempre più integrando la capacità di reagire dei singoli software antimalware installati su PC e server con i firewall che, a loro volta, cambiano dinamicamente la loro configurazione per bloccare, anche dal punto di vista della rete, le connessioni generate da questi file pericolosi.
Questo tipo di approccio sta diventando sempre di più l’unico vero modello di risposta alla minaccia cibernetica incombente.
Gartner, nota azienda statunitense di analisi strategiche, ha individuato in aziende internazionali come Sophos, Crowdstrike, PaloAlto Networks, SentinelOne e TrendMicro i leader di riferimento nel mercato delle tecnologie di cybersecurity. Ognuna di loro fa uso di Intelligenza Artificiale ormai da qualche anno, partendo dal Machine Learning fino alla Intelligenza Artificiale Generativa. Analizzando questi aspetti anche dal punto di vista dell’Intelligence cibernetica, è chiaro il motivo per il quale i maggiori player siano tutti provenienti dagli Stati Uniti o dai loro alleati.
Attori cinesi di una certa rilevanza, come Sangfor, stanno prendendo piede anche in Italia in quanto la validità tecnologica dei prodotti, unita a prezzi estremamente competitivi, fa sì che i timori dello spionaggio cinese vengano superati dalla necessità di dotarsi di tecnologie valide ed economicamente convenienti.
Nel 2024, Gartner ha pubblicato un’analisi in cui include questo produttore tra le aziende rappresentative nel mercato della Network Detection and Response (NDR).
Un altro caso di interesse per comprendere questo mercato è l’acquisizione da parte di Thoma Bravo (fondo di investimento), per un valore di 5.3 miliardi di dollari, dell’azienda Darktrace, leader nella ricerca di minacce cibernetiche mediante analisi del traffico con AI.
Interazione Intuitiva: parlare all’intelligenza artificiale come a un collega
Un aspetto particolarmente interessante è l’evoluzione dell’AI verso un’interazione quasi “umana”. I professionisti della sicurezza possono fare domande dirette al sistema, simulando un’interazione naturale che facilita il recupero delle informazioni critiche in tempi più rapidi. Questo aumenta la produttività e permette di concentrare l’attenzione su decisioni strategiche, lasciando all’AI il compito di fornire dati accurati e risposte rapide.
Oggi, sapere scrivere dei “prompt” – ovvero porre le domande in modo corretto all’AI – è diventato essenziale: fornire le informazioni di contesto rilevantipuò veramente cambiare la correttezza e la precisione della risposta che otterremo.
L’accelerazione dell’analisi grazie all’ AI permette di reperire nuove nozioni o tecniche rispetto a cui l’operatore di SOC potrebbe non essere ancora perfettamente informato o addestrato a gestire. Ad esempio, in commercio si trovano sempre più soluzioni che permettono di fare intelligence partendo semplicemente da un indirizzo email, un dominio aziendale o un indirizzo IP pubblico, a partire dai quali la moderna AI è in grado di reperire e arricchire informazioni, fornendo un quadro della situazione ad una velocità che un essere umano non potrebbe mai raggiungere.
Questo oggi succede grazie allo sviluppo dei sistemi linguistici di grandi dimensioni, chiamati comunemente Large Language Models o LLM.
I modelli linguistici di grandi dimensioni (LLM) sono una categoria di modelli di fondazione addestrati su immense quantità di dati, capaci di comprendere e generare linguaggio naturale e altri tipi di contenuti per eseguire una vasta gamma di attività.
Gli LLM si sono diffusi grazie al loro ruolo nel portare l’AI generativa all’attenzione pubblica e rappresentano una soluzione che le organizzazioni stanno adottando per varie funzioni e casi d’uso.
Al di fuori del contesto aziendale gli LLM possono essere percepiti come una novità, in parallelo ai recenti sviluppi dell’AI generativa. Aziende come IBM hanno impiegato anni a sviluppare gli LLM per migliorare la comprensione e l’elaborazione del linguaggio naturale (NLU e NLP), sfruttando i progressi nel machine learning, negli algoritmi, nelle reti neurali e nei modelli di trasformazione.
Nel 2023, IBM ha condiviso sul proprio sito il lancio di un fondo da 500 milioni di dollari destinato a startup attive nello sviluppo dell’AI.
Questo tipo di esperienza basata sul linguaggio naturale oggi è alla portata di tutti grazie agli imponenti investimenti nel settore: OpenAI ha ricevuto un miliardo di dollari solo da Microsoft nel 2019, mentre nel 2024 ha completato la raccolta fondi per un valore di 150 miliardi di dollari, come riportato da Business Insider.
Meta (che controlla Facebook, Instagram e Whatsapp) ha dichiarato al mercato che continuerà ad investire nell’AI cifre tra i 35 e 40 miliardi di dollari, come riportato dal quotidiano francese Le Monde il 26 aprile 2024.
Il Fattore Tempo: una risorsa chiave
Chi si occupa di cybersecurity sa bene che il fattore più cruciale in assoluto è uno: il tempo. Spesso, la differenza tra il rilevamento di un’anomalia e la risposta adeguata può essere misurata in frazioni di secondo. Essere tempestivi nel riconoscere e agire su eventi sospetti è essenziale per ridurre l’impatto degli attacchi.
L’AI, con le sue capacità di elaborazione e analisi in tempo reale, può accelerare questo processo fornendo ai professionisti della sicurezza informazioni tempestive e dettagliate. Prima che l’AI si diffondesse così massicciamente, gli operatori dovevano essere focalizzati esclusivamente nel rilevare queste anomalie, oltre ad avere un’elevata preparazione per saper interpretare il significato di ogni singolo evento (e che tipo di rischio questo potesse comportare).
Identificare una minaccia, infatti, può derivare dall’osservazione di elementi non sempre correlati. Il rilevamento di variazioni numeriche anomale – come improvvisi picchi di traffico, accessi inusuali o cambiamenti nella configurazione dei sistemi – potrebbe indicare un potenziale rischio. Se un fenomeno isolato può sembrare insignificante, la sua ripetizione in un breve lasso di tempo può rappresentare una minaccia; paragonandolo alla salute umana, prendere un’aspirina due volte al giorno è sicuro ma dieci volte in un’ora diventa tossico. Lo stesso vale per la cybersecurity: l’AI consente di rilevare schemi ripetitivi che possono segnalare attacchi informatici in corso.
Uno studio condotto dalla School of Computer and Information Sciences presso la University of the Cumberlands, Kentucky (USA) dai professori Meraj Farheen Ansari, Bibhu Dash, Pawankumar Sharma e Nikhitha Yathiraju, pubblicato nel 2022, ha evidenziato come l’AI abbia portato vantaggi importanti nel rilevamento di quanto sopra esposto; ma ha anche introdotto i rischi che devono essere considerati dagli stakeholder, oltre ai costi di sviluppo e mantenimento o al rischio di perdita di posti di lavoro, evidenziando in particolare il rischio di campagne di disinformazione allo scopo di manipolare l’AI Generativa.
D’altra parte, però, rinunciarvi è impossibile. Analizzando i dati pubblicati nel rapporto Clusit 2023, la quantità di attacchi informatici andati a buon fine è senza precedenti: 2.779 incidenti gravi a livello mondiale, con un aumento del 12% rispetto all’anno precedente. In Italia gli attacchi gravi sono stati 310, rappresentando l’11% del totale globale e segnando una crescita del 65% rispetto al 2022. Il rapporto sottolinea che l’81% degli attacchi globali ha avuto una gravità elevata o critica. In Italia, oltre la metà degli attacchi (56%) ha avuto conseguenze di gravità critica o elevata. Rispetto agli ultimi cinque anni, oltre il 47% degli attacchi totali censiti in Italia si è verificato nel 2023.
La guerra ibrida e l’intelligence cibernetica rimangono quindi al centro della scena, obbligando tutti – soggetti pubblici e privati – a dirottare risorse per prevenire le azioni ostili la cui portata è stata appena descritta.
Gli effetti sul mercato
Quanto sinora esposto spiega il motivo dietro agli imponenti investimenti nel settore dell’AI. Il Wall Street Journal ha pubblicato il 19 aprile 2024 dati da cui risulta una crescita del 69% nel primo trimestre del 2024 rispetto a quello precedente, per un totale di 2.7 miliardi.
MarketWatch ha riportato, il 12 settembre 2024, che Mastercard ha annunciato l’acquisizione di Recorded Future per 2.65 miliardi di dollari, con l’obiettivo di migliorare la propria cybersecurity tramite l’AI per prevenire frodi.
Guardando invece all’Italia, nel 2023 il mercato della cybersecurity ha raggiunto un valore record di 2.15 miliardi di euro, con un incremento del 16% rispetto all’anno precedente, come riportato dall’Osservatorio del Politecnico di Milano.
Per i Security Operation Center, l’arricchimento delle informazioni a mezzo AI è un elemento essenziale. Per arricchimento si intende l’individuazione e la raccolta di tutti quei dati strutturati e non disponibili su fonti aperte, che fanno riferimento a uno o più elementi coinvolti nell’oggetto dell’analisi.
Quando un evento sospetto emerge, l’AI può generare approfondimenti e correlazioni su larga scala in tempi record, di fatto agevolando il processo decisionale e la tempestiva risposta a uno o più incidenti simultaneamente. Tutte le tecnologie a cui si è accennato in precedenza forniscono supporto per fare arricchimento delle informazioni.
Inutile dire come lo scambio di informazioni tra pubblico e privato, supportato dall’AI, diventerà ancora più efficace nel campo dell‘Incident Response. Piattaforme note di Open Source Threat Intelligence, come il MISP, supportano la condivisione di queste informazioni di intelligence.
Gli operatori di Cyber Intelligence saranno anche chiamati a trovare il giusto equilibrio per soddisfare quanto previsto dal Regolamento Europeo 1689/2024, noto come AI Act.
Il nuovo AI Act prevede una valutazione del sistema di AI in base ai rischi che esso comporta per la libertà e la dignità delle persone,articolati su quattro livelli:
- Rischio inaccettabile – ad esempio, una “situazione in cui si rende possibile il social scoring di un individuo”;
- Rischio elevato – applicato agli ambiti in cui si devono garantire trasparenza e affidabilità, come il settore sanitario o dell’istruzione;
- Rischio limitato – per i sistemi di AI che potrebbero influire sui diritti degli utenti, sono richieste specifiche misure di trasparenza (ad esempio, i chatbot devono dichiarare chiaramente che sono macchine e non umani);
- Rischio minimo – per i sistemi considerati a basso rischio, come i filtri anti-spam, il regolamento impone poche restrizioni.
Essendo la sicurezza cibernetica un processo trasversale, si prevede che un gran lavoro dovrà essere fatto per limitare i possibili tipi di aggregazione di informazioni, proprio per rendere i sistemi utilizzabili come previsto dalla norma.
Difendersi dall’Adversarial Machine Learning e dalle campagne di disinformazione
L’AI, tuttavia, deve essere impiegata in modo razionale e ponderato per il rischio di Adversary Attack, ovvero veri e propri sabotaggi all’AI.
La capacità di discernere tra informazioni accurate e ingannevoli è cruciale, poiché non sempre le informazioni a disposizione sono al 100% accurate. Questa vera e propria scienza è da tempo oggetto di studio da parte del mondo accademico, per poterne capire in modo profondo i fenomeni e studiare i possibili rimedi. In base a tali studi, il processo di apprendimento risulta oggi essere la parte più vulnerabile.
La buona notizia è che esiste la possibilità di importare nei propri data center reti neurali già addestrate e non soggette a questo genere di attacchi, perché non necessitano di ulteriore addestramento. Le reti neurali di questo tipo non hanno le stesse performance di quelle online, ma sicuramente sono un eccellente supporto in molti processi aziendali.
È tuttavia molto importante evidenziare che in letteratura è già ampiamente documentato come sia possibile svolgere questo tipo di attacchi.
Tra gli attacchi più temuti alle AI figurano Data Poisoning e Data Slow Poisoning: il dott. Johannes Ullrich, ricercatore SANS, nel suo Keynote speech alla conferenza RSA 2021 ha esposto quale sarebbe stato il pericolo per le moderne AI e ML di cui oggi facciamo un massiccio utilizzo.
Il tema è talmente sentito che ci sono corsi universitari dedicati anche in Italia, come quello del prof. Stefano Tomasin, docente all’Università di Padova presso il Dipartimento dell’Ingegneria dell’Informazione. Lo studio delle metodologie di Machine Learning e delle relative tecniche di attacco (Adversarial Machine Learning) permettono di comprendere come, ad esempio nell’esame delle immagini, continui inserimenti di variazioni minime nel modello di apprendimento possano completamente distorcere la capacità di riconoscimento di un sistema.
Il dott. Alex della Vakanski Idaho University espone come le Deep Neural Networks (alla base dell’AI) possano raggiungere risultati eccezionali, ma contestualmente rimangano vulnerabili all’inserimento di piccole perturbazioni che possono stravolgere completamente i risultati. Un esempio di perturbazione è qui sotto riportata:
L’AI come acceleratore di reazione, ma la decisione spetta alle persone
In sintesi, l’AI nella cybersecurity rappresenta un elemento incredibilmente abilitante per la velocità di analisi e reazione. Tuttavia, la decisione ultima spetta sempre all’essere umano. L’AI fornisce dati, analisi e raccomandazioni; ma è il professionista della sicurezza a valutare la situazione nel contesto specifico e a prendere le decisioni finali.
Sarebbe opportuno considerare l’AI come un supporto, le cui informazioni – per quanto possibile – vanno sempre verificate e valutate.
Al fine di poter valorizzare questo progresso tecnologico così importante, sarà sempre più cruciale formare professionisti abili a individuare attacchi di Adversarial AI, prevedendo tutti gli effetti malevoli che ne possono conseguire.
Con i dati attualmente in nostro possesso è più che probabile che continueranno gli investimenti in questo settore, specificamente mirati al campo della Cyber Intelligence e della cybersecurity basata sull’AI.
Per un’analisi completa e dettagliata di tutte le implicazioni, sfide e opportunità dell’intelligenza artificiale applicata alla cyber intelligence, ti invitiamo a consultare il Quaderni di Cyber Intelligence #7, dove potrai trovare approfondimenti tecnici, case study e best practice per implementare efficacemente l’AI nella tua strategia di cybersecurity.
È un informatico specialista in Sicurezza Informatica e Sicurezza delle informazioni con oltre 15 anni di esperienza. Ha conseguito molteplici certificazioni internazionali in ambito tecnologico ed ha lavorato in Germania ed Inghilterra per importanti aziende costruttrici di tecnologie per la Sicurezza Informatica. Nel corso della sua carriera è stato chiamato sia come consulente che come docente per entità afferenti al comparto della Difesa. Fondatore di WhySecurity srl, oggi si occupa di supporto ad indagini difensive
collaborando con investigatori privati, svolge analisi di rischio economico connesso al rischio informatico e offre servizi SOC a favore dei propri clienti.