elazione tra Intelligenza Artificiale (AI) e Cybersecurity

Intelligenza Artificiale (AI) e cybersecurity: la doppia faccia della rivoluzione digitale 2025

Intelligenza Artificiale (AI) e Cybersecurity hanno attraversato nel 2025 una trasformazione che nessuno poteva prevedere con tale precisione solo due anni fa. Il rapporto tra queste due forze è diventato il paradigma dominante della sicurezza digitale moderna. Per la prima volta nella storia, l’AI e i modelli linguistici di grandi dimensioni hanno superato il ransomware come principale preoccupazione per i responsabili della sicurezza aziendale, ridisegnando l’intero panorama delle minacce.

Secondo il rapporto State of Cybersecurity 2025 pubblicato da Arctic Wolf nel maggio 2025, basato su un’indagine condotta da Sapio Research su oltre milleduecento decisori IT e cybersecurity in quindici paesi, Intelligenza Artificiale (AI) e Cybersecurity rappresentano oggi il binomio più critico da comprendere. Dan Schiappa, presidente della divisione Technology and Services di Arctic Wolf, ha commentato: “L’emergere rapido dell’AI sta creando nuova incertezza, non solo nel modo in cui operano gli attaccanti, ma anche in come devono rispondere i difensori”.

Il paradosso che definisce l’era attuale è evidente: la stessa tecnologia che promette di proteggerci è diventata l’arma più sofisticata nelle mani di chi vuole colpirci. Comprendere la relazione tra Intelligenza Artificiale (AI) e Cybersecurity non è più un’opzione per le organizzazioni, ma una necessità strategica per la sopravvivenza digitale.

AI Phishing Attacks: l’evoluzione dell’inganno digitale

Ricordare quando un’email di phishing si riconosceva dagli errori grammaticali sembra appartenere a un’era lontana. Attraverso la relazione innescatasi tra Intelligenza Artificiale (AI) e Cybersecurity, il phishing ha subito una trasformazione radicale, elevandosi da truffa grossolana ad arte sofisticata dove la perfezione linguistica è solo il punto di partenza.

Il CrowdStrike 2025 Global Threat Report, pubblicato nel febbraio 2025, documenta un aumento del quattrocentoquarantadue percento negli attacchi di voice phishing tra la prima e la seconda metà del 2024. Adam Meyers, vicepresidente senior per le operazioni contro gli avversari di CrowdStrike, ha spiegato che “gran parte di questo incremento è guidato dal fatto che gli avversari si rendono conto che le difese tecniche stanno diventando più forti, quindi devono prendere di mira l’anello più debole, che sono gli esseri umani”.

I dati raccolti da Hoxhunt dopo l’analisi di milioni di email malevole inviate a due milioni e mezzo di utenti in centoventuno paesi rivelano che tra lo zero virgola sette e il quattro virgola sette percento delle email di phishing sono completamente generate dall’intelligenza artificiale. Ma la situazione è più complessa: secondo il rapporto External Threat Intelligence di CybelAngel, pubblicato nel febbraio 2025, il sessantasette virgola quattro percento di tutti gli attacchi di phishing nel 2024 ha utilizzato qualche forma di AI.

L’FBI ha emesso un avviso nel 2024, sottolineando come l’intelligenza artificiale aumenti enormemente la velocità, la scala e l’automazione degli schemi di phishing, aiutando i truffatori a creare “messaggi altamente convincenti adattati a destinatari specifici”, aumentando significativamente la probabilità di inganno e furto di dati. Non si tratta più di campagne massive e generiche, ma di attacchi chirurgici dove ogni messaggio è calibrato sul suo bersaglio attraverso l’analisi di profili social, comunicazioni pubbliche e tracce digitali.

Secondo i dati di Keepnet Labs, pubblicati nell’ottobre 2025, gli attacchi di phishing basati su credenziali sono aumentati del settecentotré percento nella seconda metà del 2024. Questo incremento esponenziale non riflette semplicemente un aumento del numero di attaccanti, ma rappresenta un salto qualitativo nelle capacità offensive rese possibili dall’intelligenza artificiale.

Ciò che rende queste minacce particolarmente insidiose è la loro natura multicanale. Gli attacchi moderni non si limitano alle email: l’AI facilita ora la sintesi vocale e la manipolazione video, permettendo agli attaccanti di impersonare dirigenti, colleghi e fornitori attraverso telefonate, videochiamate e messaggi. Quando un dipendente riceve un’email seguita da una telefonata con la voce perfettamente clonata del proprio CEO, anche i più scettici possono essere ingannati.

Deepfake Cyber Attacks: quando la realtà diventa manipolabile

Se il phishing basato su intelligenza artificiale rappresenta l’evoluzione di una minaccia esistente, i deepfake sono qualcosa di qualitativamente diverso: la materializzazione di scenari che fino a pochi anni fa appartenevano alla fantascienza. Nel dibattito su Intelligenza Artificiale (AI) e Cybersecurity, i deepfake rappresentano forse la sfida più inquietante, dove l’identità stessa diventa manipolabile.

Il caso più emblematico e documentato del 2024 riguarda Arup, la società di ingegneria britannica responsabile di progetti iconici come il Sydney Opera House e il Bird’s Nest stadium di Pechino. Nel gennaio 2024, un dipendente dell’ufficio di Hong Kong ha partecipato a una videoconferenza con persone che credeva fossero il chief financial officer e altri membri dello staff senior. Durante la chiamata, gli è stato chiesto di autorizzare una serie di trasferimenti di denaro per quella che sembrava una legittima operazione aziendale. Il dipendente ha autorizzato quindici trasferimenti per un totale di venticinque milioni di dollari. Settimane dopo è emersa la verità devastante: tutti i partecipanti alla chiamata, eccetto la vittima, erano deepfake generati dall’intelligenza artificiale.

Rob Greig, Chief Information Officer di Arup, ha dichiarato al World Economic Forum: “Le indicazioni audio e visive sono molto importanti per noi come esseri umani, e queste tecnologie stanno giocando su questo aspetto. Dobbiamo davvero iniziare a mettere in discussione ciò che vediamo”. Greig ha anche rivelato che, spinto dalla curiosità dopo l’incidente, ha tentato di creare un deepfake video di se stesso in tempo reale utilizzando software open source: “Mi ci sono voluti circa quarantacinque minuti. Non era particolarmente convincente, ma è stato sorprendente ciò che si può ottenere in un periodo di tempo così breve”.

I numeri raccolti da Keepnet Labs nel 2025 dipingono un quadro allarmante: le perdite finanziarie derivanti da frodi abilitate da deepfake hanno superato i duecento milioni di dollari solo nel primo trimestre dell’anno. Il tasso di crescita è esponenziale: i tentativi di frode con deepfake sono aumentati di trentuno volte nel 2023, con un incremento del tremila percento anno su anno. I deepfake vocali sono cresciuti del seicentottanta percento nell’ultimo anno. Una ricerca di Surfshark pubblicata nel 2025 documenta che le perdite totali da frodi deepfake hanno raggiunto ottocentonovantasette milioni di dollari, con quattrocentodieci milioni solo nella prima metà del 2025.

La facilità con cui questi attacchi possono essere orchestrati è l’aspetto più inquietante. Come sottolinea Kount, basta un video Instagram di quindici secondi per creare un deepfake. L’accesso aperto e i costi contenuti significano che gli attori malevoli hanno prontamente disponibili tutorial open-source su reti generative avversarie, piattaforme, librerie e profili social pubblici per lanciare sofisticate campagne deepfake. Alcuni dei più recenti modelli AI offrono la clonazione vocale istantanea con appena tre-cinque secondi di campione vocale.

Verizon, nel suo Data Breach Investigations Report del 2025, conferma che l’ingegneria sociale rimane un modello dominante nelle violazioni, con il phishing e il pretexting che costituiscono una porzione significativa degli incidenti. La convergenza tra deepfake e phishing sta creando un ecosistema di minacce dove la distinzione tra reale e artificiale diventa sempre più sfumata.

AI Malware Detection: la rivoluzione delle difese intelligenti

Di fronte a questo panorama di minacce sempre più sofisticate, Intelligenza Artificiale (AI) e Cybersecurity convergono anche sul fronte difensivo, rappresentando il più grande salto innovativo nella sicurezza informatica degli ultimi decenni. La capacità di analizzare volumi massicci di dati, identificare pattern sottili e rispondere in tempo reale sta ridefinendo cosa significhi proteggere sistemi e informazioni.

Secondo uno studio pubblicato sul Journal of Big Data nell’aprile 2025, il machine learning offre un approccio ampio che aiuta il rilevamento precoce del malware e l’identificazione dei pattern comportamentali di grandi quantità di dati malevoli. A differenza dei metodi tradizionali basati su firme, che possono identificare solo malware già noto, gli algoritmi di machine learning possono riconoscere minacce zero-day attraverso l’analisi comportamentale.

SuperAGI documenta come, secondo stime recenti, vengano rilevate quotidianamente cinquecentosessantamila nuove minacce malware. La crescita nell’adozione dell’AI aziendale è stata del centoottantasette percento tra il 2023 e il 2025, guidata in parte dalla crescente sofisticazione delle minacce. Le aziende come Arctic Wolf hanno implementato con successo soluzioni di rilevamento minacce basate su AI, con algoritmi di machine learning che identificano e rispondono alle minacce in tempo reale, raggiungendo in alcune implementazioni fino al novantanove percento di accuratezza nel rilevamento.

La rivista accademica Knowledge and Information Systems, in una pubblicazione dell’aprile 2025, sottolinea come l’integrazione dell’intelligenza artificiale e del machine learning nella cybersecurity abbia guidato un cambiamento trasformativo, migliorando significativamente la capacità di rilevare, rispondere e mitigare minacce cyber complesse. I meccanismi di difesa tradizionali sono sempre più inadeguati contro attacchi sofisticati, rendendo necessaria l’adozione di soluzioni di sicurezza guidate dall’AI.

Uno dei vantaggi più significativi dei sistemi basati su AI e ML è la loro capacità di rilevare minacce precedentemente sconosciute attraverso il rilevamento di anomalie e il riconoscimento di pattern. Apprendendo continuamente da nuovi dati, questi modelli evolvono per riconoscere anche i vettori di attacco più sofisticati, offrendo un livello di difesa che i sistemi statici basati su firme non possono raggiungere. Secondo il rapporto IBM Security X-Force, gli algoritmi di machine learning hanno un tasso di accuratezza dell’ottantacinque percento nel rilevamento di attacchi ransomware analizzando i pattern del traffico di rete.

ChatGPT Security Risks: il dilemma della doppia natura

ChatGPT e strumenti simili di intelligenza artificiale generativa hanno rapidamente permeato l’ambiente aziendale, con oltre ottocento milioni di utenti attivi settimanali che elaborano più di un miliardo di query quotidiane. Nel contesto dell’Intelligenza Artificiale (AI) e della Cybersecurity, ChatGPT rappresenta un perfetto esempio di tecnologia a doppio taglio, dove opportunità e rischi coesistono in equilibrio precario.

Gli studi recenti mostrano che il sessantanove percento delle organizzazioni cita le fughe di dati alimentate dall’AI come principale preoccupazione di sicurezza nel 2025, eppure quasi il quarantasette percento non ha controlli di sicurezza specifici per l’AI. Il principale rischio di sicurezza di ChatGPT deriva dalle informazioni che i dipendenti inseriscono nel sistema, spesso senza considerare le implicazioni sulla privacy mentre cercano soluzioni rapide ai problemi aziendali.

Il caso di Samsung Electronics nel 2023 rappresenta un esempio emblematico. Ingegneri della divisione semiconduttori hanno utilizzato ChatGPT per aiutare a debuggare e ottimizzare il codice sorgente, inserendo inconsapevolmente dati sensibili, inclusi codice sorgente proprietario e note di riunioni interne. Poiché ChatGPT conserva gli input degli utenti per perfezionare le sue risposte, questa azione ha rischiato di esporre i segreti commerciali di Samsung a parti esterne, portando l’azienda a implementare politiche rigorose sull’uso di strumenti AI.

SentinelOne documenta come una significativa violazione della sicurezza abbia portato all’esposizione di oltre duecentoventicinquemila credenziali OpenAI sul dark web, rubate da vari malware infostealer, con LummaC2 che è stato il più diffuso. Quando utenti non autorizzati ottengono accesso agli account ChatGPT, possono visualizzare la cronologia completa delle chat, inclusi eventuali dati aziendali sensibili condivisi con lo strumento AI.

Ma c’è anche l’altro lato della medaglia. Gli attaccanti possono utilizzare ChatGPT per creare malware polimorfico o campagne di phishing convincenti. I ricercatori di cybersecurity hanno osservato che le email di phishing generate dall’AI sono non solo più grammaticalmente accurate, ma anche più convincenti, rendendole più difficili da rilevare. Le previsioni del 2025 avvertono di kit di phishing guidati dall’AI in grado di bypassare l’autenticazione multi-fattore e imitare comunicazioni autentiche con precisione inquietante.

Concentric AI sottolinea che il rischio di sicurezza di ChatGPT non riguarda tanto ciò a cui può accedere, quanto ciò che gli utenti condividono, come i dati vengono elaborati e quali protezioni sono in atto per prevenire che gli errori diventino incidenti. I dipendenti copiano e incollano dati interni in ChatGPT ogni giorno, incluse email dei clienti, roadmap di prodotto e persino linguaggio contrattuale, spesso senza rendersi conto delle implicazioni sulla sicurezza.

Intelligenza Artificiale (AI) e Cybersecurity: il futuro della difesa

Se l’intelligenza artificiale ha amplificato le capacità offensive degli attaccanti, ha anche rivoluzionato il modo in cui le organizzazioni possono difendersi. La cybersecurity alimentata dall’AI non è più una promessa futuristica, ma una realtà operativa che sta trasformando radicalmente il panorama della sicurezza digitale, dimostrando come Intelligenza Artificiale (AI) e Cybersecurity possano creare sinergie positive quando implementate strategicamente.

Darktrace, riconosciuta come leader nel Gartner Magic Quadrant 2025 per il Network Detection and Response, sottolinea come nel 2025 ci si aspetti un’espansione del mercato indirizzabile totale del cybercrimine mentre gli attaccanti aggiungono più tattiche al loro arsenale. Durante il 2024 sono stati annunciati importanti progressi negli agenti AI da parte di OpenAI, Microsoft, Salesforce e altri. Nel 2025, si prevede una crescente innovazione e adozione di agenti AI, così come l’emergere di sistemi multi-agente dove gruppi di agenti autonomi lavorano insieme per affrontare compiti complessi.

IBM, nelle sue previsioni per la cybersecurity del 2025 pubblicate nell’agosto 2025, enfatizza come nel 2025 i team di cybersecurity non saranno più in grado di gestire efficacemente le minacce in isolamento. Le minacce derivanti dall’AI generativa e dall’adozione del cloud ibrido stanno evolvendo rapidamente. La sicurezza dei dati e dell’AI diventerà un ingrediente essenziale dell’AI affidabile. Man mano che l’AI matura dalla prova di concetto alla distribuzione su larga scala, le imprese raccolgono i benefici di produttività e guadagni di efficienza, inclusa l’automazione di compiti di sicurezza e conformità per proteggere i loro dati e asset.

La piattaforma di cybersecurity AI multi-strato di Darktrace può proteggere contro tutti i tipi di minacce, siano esse note, sconosciute, completamente nuove o alimentate dall’AI. Questo viene realizzato apprendendo ciò che è normale per l’organizzazione unica, quindi identificando comportamenti insoliti e sospetti alla velocità delle macchine, indipendentemente da regole e firme esistenti. In questo modo, le organizzazioni possono essere pronte per qualsiasi sviluppo nel panorama delle minacce cybersecurity che il nuovo anno può portare.

Optiv sottolinea come la capacità dell’AI di analizzare vaste quantità di dati a velocità senza precedenti consenta un rilevamento più rapido di pattern, anomalie e potenziali violazioni. Gli algoritmi di machine learning migliorano questa capacità automatizzando le risposte agli incidenti. L’AI e il ML giocheranno un ruolo ancora più grande nel rilevamento e nella risposta alle minacce, quindi possiamo aspettarci strumenti più avanzati di threat hunting e sistemi di risposta agli incidenti automatizzati nel 2025 e oltre.

Il panorama globale: dati e prospettive

Il World Economic Forum, nel suo Global Cybersecurity Outlook 2025, evidenzia come gli attacchi informatici siano in forte crescita. Negli ultimi quattro anni, il loro numero medio settimanale è più che raddoppiato: da ottocentodiciotto per organizzazione nel secondo trimestre del 2021 a millenovecentottantaquattro nello stesso periodo del 2025. Solo negli ultimi due anni, il numero medio globale di attacchi settimanali incontrati dalle organizzazioni è cresciuto del cinquantotto percento.

KPMG, nel suo rapporto annuale Cybersecurity Considerations del giugno 2025, osserva come il panorama digitale continui a evolversi a ritmo sostenuto, scatenando sfide significative e un senso di urgenza nella necessità di misure di cybersecurity robuste. Le connessioni digitali ubique e le tecnologie emergenti rapidamente come l’AI sembrano ridefinire quasi ogni aspetto della vita professionale e personale, rendendo la cybersecurity non solo una preoccupazione aziendale ma una questione universale che colpisce tutti gli aspetti della società. Il KPMG 2024 Global CEO Outlook rivela che i CEO considerano la cybersecurity come la principale minaccia per le imprese nell’ultimo decennio.

Nonostante l’aumento del numero di attacchi, l’analista di settore IANS riporta budget per la cybersecurity in fase di stallo. La crescita è rallentata dal diciassette percento nel 2022 a solo quattro percento nel 2025, invece di aumentare in linea con i livelli di minaccia. A complicare ulteriormente le cose c’è un’acuta carenza di talenti, che rende non solo difficile ma anche costoso reclutare esperti di cybersecurity. La soluzione per molte aziende è incrementare l’uso dell’AI per rafforzare le proprie difese cyber.

Gartner, nelle sue stime, prevede che la spesa IT globale sia cresciuta a un tasso dell’otto percento nel 2024, raggiungendo i cinque virgola uno trilioni di dollari, con l’ottanta percento dei CIO che aumentano i loro budget di cybersecurity. Il rapporto evidenzia anche che le organizzazioni utilizzano in media quarantacinque strumenti di cybersecurity, secondo un’indagine condotta tra agosto e ottobre 2024 su centosessantadue grandi imprese.

Mentre ci addentriamo sempre più nel 2025, diventa chiaro che Intelligenza Artificiale (AI) e Cybersecurity hanno ridefinito fondamentalmente le regole del gioco nella sicurezza digitale. Non stiamo più semplicemente discutendo di nuovi strumenti o tecniche, ma di un cambiamento paradigmatico nel modo in cui concepiamo la protezione dei dati e delle infrastrutture. L’AI non è né buona né cattiva in sé: è uno specchio che amplifica tanto le nostre capacità difensive quanto quelle offensive.

La sfida per le organizzazioni non è scegliere tra adottare l’AI o rinunciarvi, ma piuttosto come integrare queste tecnologie in modo sicuro, responsabile e strategico. Richiede un approccio olistico che combini tecnologia avanzata, governance robusta, formazione continua e una cultura organizzativa che valorizzi la sicurezza come elemento fondamentale piuttosto che come vincolo.

Il futuro della cybersecurity non sarà determinato da chi ha la tecnologia più avanzata, ma da chi saprà utilizzarla con maggiore saggezza, bilanciando innovazione e sicurezza, velocità e prudenza, apertura e protezione. In questa corsa senza fine tra attaccanti e difensori, Intelligenza Artificiale (AI) e Cybersecurity sono destinate a giocare un ruolo sempre più centrale e indissolubile. La domanda non è se l’AI trasformerà la cybersecurity, ma come saremo in grado di guidare questa trasformazione verso un ecosistema digitale più sicuro, resiliente e affidabile per tutti.

Condividi sui Social Network:

Ultimi Articoli

ISCRIVITI ALLA NEWSLETTER DI ICT SECURITY MAGAZINE

Una volta al mese riceverai gratuitamente la rassegna dei migliori articoli di ICT Security Magazine

Rispettiamo totalmente la tua privacy, non cederemo i tuoi dati a nessuno e, soprattutto, non ti invieremo spam o continue offerte, ma solo email di aggiornamento.
Privacy Policy