Dei giovani si scatenano per una dance challenge su TikTok. Una coppia posta un selfie mentre è in vacanza, per aggiornare gli amici sul viaggio. Influencer in erba caricano il loro ultimo video su YouTube. Senza volerlo, ciascuno di loro sta alimentando un emergente vettore di frode che si dimostrerà particolarmente gravoso tanto per le aziende che per i consumatori: il deepfake.
Il nome deepfake deriva dalla tecnologia che sta alla base: il deep learning, ovvero una sottocategoria di intelligenza artificiale (IA) che imita il modo in cui le persone acquisiscono conoscenza. Con il deep learning, gli algoritmi imparano da giganteschi set di dati, senza che sia necessaria la supervisione umana. Più grandi sono i set di dati, più accurato diventerà l’algoritmo.
Il deepfake utilizza l’IA per creare video o file audio molto convincenti che ricalcano quelli di altri: per esempio, il video di una celebrità che afferma qualcosa che in realtà non ha mai detto. I deepfake vengono realizzati per svariati motivi, alcuni legittimi, altri meno. Tra questi ci sono: la satira, l’intrattenimento, la frode, la manipolazione politica e la generazione di “fake news”.
Il pericolo che i deepfake rappresentano per la società è reale e attuale per via del rischio associato all’essere in grado di mettere qualsiasi parola sulla bocca di persone potenti, influenti o affidabili, come politici, giornalisti o celebrità. Inoltre, i deepfake rappresentano una minaccia sempre più crescente per le aziende. L’effettivo pericolo si articola in:
Tra i rischi associati ai deepfake, a oggi l’impatto sulle frodi è uno di quelli più preoccupanti per le aziende. Questo perché i criminali stanno utilizzando in maniera crescente la tecnologia del deepfake per compensare il minor profitto derivante dai tradizionali schemi di frode, come il phishing e il furto di account. Questi vecchi tipi di truffa sono diventati più difficili da realizzare, poiché le tecnologie anti-frode sono migliorate (ad esempio, tramite l’introduzione dell’autenticazione multifattore).
Questa tendenza coincide con l’emergere dei tool per deepfake, resi disponibili come servizio (as-a-service) sul dark web, che rendono più semplice e più conveniente per gli attaccanti lanciare tali schemi di frode, anche a fronte di competenze tecniche limitate. Coincide, inoltre, con il fatto che le persone postano volumi enormi di immagini e video sulle piattaforme dei social media: input golosi per gli algoritmi di deep learning, che diventano così sempre più convincenti.
In tal senso, vi sono tre nuove tipologie principali di frode di cui i team di sicurezza delle aziende dovrebbero tenere conto:
Vi sono già stati numerosi schemi di frode ad alto profilo e con un notevole impatto economico che hanno alla base i deepfake. In un caso, un truffatore ha usato la tecnologia del deepfake vocale per imitare un direttore d’azienda noto a un direttore di banca. L’attaccante è riuscito a frodare la banca per 35 milioni di dollari americani. In un altro caso, i criminali hanno usato un deepfake per imitare la voce di un amministratore delegato e chiedere il trasferimento di 220.000 euro da un suo delegato junior a un fornitore fittizio. Ecco perché i deepfake sono un pericolo reale e attuale, e le aziende devono agire ora per proteggersi.
Data la crescente complessità e prevalenza delle frodi di tipo deepfake, cosa possano fare le aziende per proteggere i loro dati, le loro finanze e la loro reputazione? Ecco cinque passaggi chiave che le aziende dovrebbero attuare, oggi:
Negli anni a venire, la tecnologia continuerà a evolvere e diventerà sempre più difficile individuare i deepfake. Poiché sempre più persone e aziende passeranno al metaverso e al web 3.0, è probabile che gli avatar verranno usati per accedere e fruire di una vasta gamma di servizi. A meno che non vengano messe in atto protezioni idonee, questi avatar nativi digitali saranno sicuramente più semplici da falsificare rispetto agli esseri umani. È però ovvio che non migliorerà solo la tecnologia per sfruttare al meglio le frodi, ma anche quella per rilevarle. Il compito dei team di sicurezza sarà quello di restare sempre aggiornati sugli avanzamenti tecnologici per il rilevamento e su altre tecnologie innovative che aiutano a combattere questa minaccia. La meta dei deepfake è chiara: spetta alle aziende iniziare a prepararsi in tempo utile.
A cura di David Fairman, Chief Information Officer & Chief Security Officer APAC presso Netskope
Nel panorama odierno della sicurezza informatica, la protezione degli endpoint rappresenta un obiettivo imprescindibile per…
I numeri dell’evento Oltre 1000 ospiti, 42 relatori, 20 interventi tematici e 5 Tavole Rotonde:…
Group-IB è un fornitore, con sede a Singapore, di sistemi ad elevata attendibilità per il…
Le interazioni di natura digitale, su rete pubblica o all’interno di reti private, hanno assunto…
La Commissione Europea ha di recente ricordato come “Artificial intelligence (AI) is not science fiction;…
Di seguito il programma della Cyber Crime Conference 2024, che avrà luogo a Roma nei…