Come riconoscere i video fake: la nuova realtà dei deepfake che sta cambiando il mondo
Nell’era digitale, video e deepfake stanno ridefinendo ciò che percepiamo come reale. Questo articolo esplora come l’intelligenza artificiale consenta di manipolare la verità, dagli inganni politici dei filosofi antichi alle truffe finanziarie contemporanee. Tra esempi concreti, studi scientifici e strategie pratiche per riconoscere i contenuti falsi, il testo mostra perché i deepfake rappresentano una sfida epocale per la sicurezza, la percezione e la nostra capacità di discernimento.
L’arte antica dell’inganno trova nuova vita nell’era digitale
Nel 1984, George Orwell immaginava un mondo dove “la guerra è pace, la libertà è schiavitù, l’ignoranza è forza”. Oggi, quasi quarant’anni dopo, la sua profezia si materializza sotto forma di algoritmi e pixel: benvenuti nell’era dei deepfake, dove vedere non significa più credere.
Ma l’inganno politico non è nato con l’intelligenza artificiale. Per millenni, i leader hanno perfezionato l’arte di manipolare la percezione pubblica attraverso quello che i filosofi chiamano “sofisma” – l’uso di ragionamenti apparentemente validi ma sostanzialmente fallaci per convincere le masse.
Platone, nel suo “Fedro” (370 a.C.), avvertiva già dei pericoli della retorica senza verità. Nel dialogo, Socrate critica chi pratica l’arte del discorso senza conoscere la verità, sostenendo che una “autentica arte del dire senza il tocco della verità non esiste né esisterà mai”. Il filosofo greco temeva che l’eloquenza potesse sostituire la sostanza, che la forma potesse prevalere sul contenuto. Una profezia che risuona drammaticamente nell’era dei deepfake.
Niccolò Machiavelli, ne “Il Principe” (1513), codificò questa strategia in una dottrina politica esplicita. “È necessario a un principe sapere bene usare la bestia e l’uomo”, scriveva, teorizzando l’uso dell’astuzia come strumento di potere. Per Machiavelli, l’inganno non era un difetto del potere, ma una sua caratteristica essenziale. “A uno principe, adunque, non è necessario avere in fatto tutte le soprascritte qualità, ma è bene necessario parere di averle”, dichiarava con lucida chiarezza, anticipando di cinque secoli l’essenza stessa dei deepfake: l’apparenza che sostituisce la realtà.
Hannah Arendt, filosofa del XX secolo, portò questa analisi a un livello ancora più profondo. Nel suo “Le origini del totalitarismo” (1951), descrisse come i regimi autoritari non si limitassero a mentire, ma creassero una “realtà alternativa” così pervasiva da rendere impossibile distinguere il vero dal falso. Arendt osservò che il suddito ideale del regime totalitario non è il convinto seguace dell’ideologia, ma “l’individuo per il quale la distinzione fra realtà e finzione, fra vero e falso non esiste più”. Una condizione che i deepfake rendono tecnicamente realizzabile su scala di massa.
Questa manipolazione della realtà ha sempre seguito schemi prevedibili. I politici hanno imparato a usare tecniche retoriche specifiche: la ripetizione ossessiva di slogan (che diventa verità per molti), il gaslighting (far dubitare alla vittima della propria percezione della realtà), la proiezione (accusare gli avversari dei propri difetti), e soprattutto il cherry-picking – selezionare solo i fatti che confermano la propria narrativa, ignorando tutto il resto.
Quello che rende i deepfake così pericolosi non è solo la loro perfezione tecnica, ma il fatto che sfruttano gli stessi meccanismi psicologici che i politici hanno utilizzato per secoli. La differenza è che ora l’inganno non si limita alle parole: può materializzarsi in video indistinguibili dalla realtà.
Lo studio “Deepfake-Eval-2024” rappresenta un momento di verità che Platone avrebbe apprezzato: quando i ricercatori hanno testato 16 sistemi di rilevamento all’avanguardia contro deepfake reali circolanti online, hanno scoperto che l’accuratezza crollava dal 99% in laboratorio al 75% nella realtà. È la stessa dinamica che Arendt aveva identificato nei regimi totalitari: la verità funziona perfettamente in teoria, ma collassa quando si confronta con la propaganda sistematica.
Il parallelo è sconvolgente: così come i sistemi di rilevamento falliscono quando escono dal laboratorio protetto e si scontrano con la “selva oscura” di internet, così la democrazia vacilla quando le sue istituzioni, progettate per un mondo di fatti verificabili, si confrontano con l’era della post-verità digitale.
I deepfake sono l’evoluzione naturale di una strategia antica quanto il potere stesso: convincere le persone che ciò che vedono e sentono non è affidabile quanto ciò che il leader dice loro di vedere e sentire. Solo che ora, invece di limitarsi a distorcere i fatti, possono creare fatti completamente nuovi, indistinguibili dalla realtà.
Come teorizzava Orwell in “1984”, il potere totalitario aspira al controllo assoluto della percezione: chi controlla il presente controlla il passato, chi controlla il passato controlla il futuro. I deepfake hanno reso questa visione distopica tecnicamente realizzabile.
Quando la realtà diventa un’illusione
Era una mattina di gennaio del 2024 quando un dipendente finanziario di Hong Kong ricevette una videochiamata dal suo direttore finanziario. Sullo schermo c’era il volto familiare del suo capo, che gli chiedeva di autorizzare urgentemente un trasferimento di fondi per un’acquisizione segreta. La voce era quella giusta, i gesti erano naturali, perfino l’ufficio sullo sfondo corrispondeva. Il dipendente non ebbe esitazioni: in una settimana trasferì 25,6 milioni di dollari attraverso 15 transazioni separate.
Solo dopo scoprì di essere stato truffato da un deepfake talmente perfetto che anche lui, che conosceva personalmente il direttore, non si era accorto di nulla. L’intera videoconferenza era stata una messinscena: tutti i partecipanti, tranne lui, erano deepfake generati dall’intelligenza artificiale.
Benvenuti nell’era in cui non potete più fidarvi di quello che vedete. Un’era in cui l’intelligenza artificiale ha imparato a mentire meglio di qualsiasi essere umano.
La rivoluzione invisibile che ci circonda
I deepfake sono ovunque, anche se non ce ne accorgiamo. Quel video virale del politico che dice qualcosa di scandaloso? Potrebbe essere falso. La foto di quella celebrità in una situazione imbarazzante? Probabilmente creata al computer. Secondo l’ultimo report di Deloitte, stiamo parlando di una tecnologia che potrebbe causare danni per 40 miliardi di dollari entro il 2027, solo negli Stati Uniti.
Ma facciamo un passo indietro. Che cosa sono esattamente questi deepfake che stanno rivoluzionando il nostro rapporto con la verità?
Immaginate di avere un artista talmente bravo da poter disegnare il volto di chiunque in qualsiasi situazione, ma invece di usare pennelli e colori, usa algoritmi e computer. I deepfake sono questo: video, audio o immagini create dall’intelligenza artificiale che sembrano autentici ma sono completamente artificiali.
La tecnologia funziona come un bugiardo molto intelligente che ha studiato a fondo la sua vittima. Il computer “osserva” migliaia di foto e video di una persona, impara ogni suo gesto, ogni espressione, il modo in cui muove la bocca quando parla. Poi, come un ventriloquo digitale, può far dire a quella persona qualsiasi cosa.
I numeri che fanno paura
Le statistiche del 2024 sono da brividi. Secondo i dati di Deloitte, i deepfake nel settore finanziario sono aumentati del 700% in un solo anno. Non parliamo più di casi isolati, ma di un fenomeno di massa che sta investendo ogni aspetto della nostra vita digitale.
Il 60% degli americani si dice preoccupato per questa tecnologia, e hanno ragione. Perché quando anche gli esperti faticano a distinguere il vero dal falso, cosa può fare una persona normale?
Il grande inganno: quando la scienza non basta
Qui arriviamo al cuore del problema, quello di cui nessuno parla abbastanza. I ricercatori universitari hanno creato sistemi di rilevamento che nei loro laboratori funzionano alla perfezione. Parliamo di accuratezze del 99% su video di test. Numeri che farebbero pensare che il problema sia risolto.
Ma la realtà è ben diversa. Quando gli stessi sistemi vengono messi alla prova con deepfake reali, quelli che circolano veramente su internet, succede qualcosa di drammatico. Uno studio rivoluzionario del 2024, chiamato “Deepfake-Eval-2024”, ha analizzato oltre 45 ore di video e 56,5 ore di audio raccolti da 88 siti web in 52 lingue diverse. Il risultato? Un disastro.
I sistemi di rilevamento perdevano in media il 50% della loro accuratezza. Alcuni modelli arrivavano a prestazioni quasi casuali, come se stessero tirando una moneta. Anche i migliori, dopo essere stati “addestrati” con dati reali, raggiungevano solo il 75% di accuratezza.
È come se avessimo allenato un detective a riconoscere i criminali guardando solo film di Hollywood, e poi lo avessimo mandato per strada a fermare ladri veri. Il mondo reale è molto più complicato del laboratorio.
Perché la tecnologia non ci sta salvando
Il motivo di questo fallimento è tanto semplice quanto inquietante. I deepfake “da laboratorio” sono come leoni dello zoo: controllati, prevedibili, creati in condizioni perfette. Ma quelli che circolano online sono come belve selvatiche: imprevedibili, evolutisi per sopravvivere, sempre un passo avanti.
Chi crea deepfake per scopi illeciti non usa le tecnologie del 2019 che studiano i ricercatori. Usa gli ultimi modelli, come quelli che alimentano ChatGPT o Midjourney, e impara dai sistemi di rilevamento per aggirarli. È una corsa agli armamenti digitale dove, al momento, stanno vincendo i cattivi.
Secondo uno studio della Columbia Journalism Review, anche i giornalisti professionali, quelli che dovrebbero essere i nostri guardiani contro la disinformazione, spesso si affidano troppo a strumenti tecnologici che li tradiscono.
L’arte perduta di riconoscere le bugie digitali
Ma non tutto è perduto. Se la tecnologia ci ha deluso, possiamo tornare alle nostre capacità umane più antiche: l’intuizione, l’osservazione, il sano scetticismo. I ricercatori del MIT hanno sviluppato una guida pratica che chiunque può seguire.
Gli occhi, specchio dell’anima artificiale
Iniziamo dagli occhi, perché anche l’intelligenza artificiale più sofisticata ha ancora problemi con questi “specchi dell’anima”. Guardate il battito delle palpebre: è naturale o sembra meccanico? I primi deepfake non battevano mai le palpebre, problema ora risolto, ma il ritmo potrebbe sembrare ancora troppo regolare.
Poi osservate i riflessi. In un deepfake, spesso l’occhio destro e sinistro hanno riflessi diversi, come se guardassero due fonti di luce diverse. E le pupille? Si dilatano e si restringono naturalmente in base alla luce, o rimangono fisse come quelle di una bambola?
La bocca che tradisce la menzogna
Quando parliamo, non muoviamo solo le labbra. Tutto il viso partecipa alla conversazione: le guance si alzano quando sorridiamo, la fronte si corruga quando siamo preoccupati. Se vedete una bocca che si muove mentre il resto del viso rimane immobile, iniziate a insospettirvi.
E poi c’è la sincronizzazione. Le parole corrispondono esattamente al movimento delle labbra? Non sempre è facile da notare, ma quando c’è un problema, spesso si sente prima di vedersi.
I dettagli che l’AI non sa gestire
Secondo i ricercatori del CSIRO australiano, ci sono alcuni dettagli che tradiscono ancora i deepfake più sofisticati. Gli orecchini diversi l’uno dall’altro, un occhio leggermente più grande dell’altro, asimmetrie che l’occhio umano nota anche se non sa spiegare perché.
E poi ci sono le mani. I deepfake hanno ancora enormi difficoltà con le mani. Contate le dita: sono cinque per mano? Hanno dimensioni normali? Si muovono naturalmente? Spesso la risposta è no.
Il metodo che può salvarvi
Il professor Mike Caulfield dell’Università di Washington ha sviluppato una strategia semplice ma efficace, chiamata metodo SIFT, per valutare la credibilità dei contenuti online:
Stop – Non condividete immediatamente. La voglia di condividere qualcosa di scioccante è forte, ma resistete.
Investigate the source – Chi ha pubblicato questo contenuto? È una fonte affidabile o un account anonimo creato ieri?
Find better coverage – Se fosse vero, altri ne starebbero parlando. Cercate su Google, controllate i siti di news.
Trace claims – Che prove concrete ci sono? Da dove vengono le informazioni?
È un metodo che ha salvato molte persone dall’imbarazzo di condividere fake news, e che può salvare voi dal cadere in truffe ben più costose.
Gli strumenti che avete già in tasca
Non servono tecnologie fantascientifiche per difendersi. Google Reverse Image Search può dirvi se un’immagine è già apparsa altrove online. TinEye fa lo stesso lavoro. Se vedete una foto “esclusiva” che in realtà circola da mesi, sapete che qualcosa non quadra.
Ci sono anche app specifiche come Hive AI o strumenti come InVID-WeVerify sviluppato dall’Unione Europea. Ma ricordate: nessuno strumento è perfetto. Usateli come aiuto, non come verità assoluta.
La verità scomoda: anche noi sbagliamo
Uno studio mastodontico pubblicato su ScienceDirect ha analizzato 56 ricerche con oltre 86.000 partecipanti. Il risultato? Anche noi umani non siamo bravi a riconoscere i deepfake. L’accuratezza media è solo del 55% – appena meglio del caso.
Ma c’è una speranza. Con l’allenamento e l’uso di strumenti di supporto, l’accuratezza sale al 65%. Non è perfetto, ma in un mondo dove sbagliano anche i computer, ogni miglioramento conta.
Le storie che non finiscono sui giornali
Dietro le statistiche ci sono storie umane che raramente arrivano sui media. Come quella degli imprenditori italiani presi di mira nel febbraio 2025 da una truffa che utilizzava la voce clonata del Ministro della Difesa Guido Crosetto. I truffatori fingevano di dover liberare giornalisti rapiti, convincendo Massimo Moratti a versare 1 milione di euro (poi recuperato dalla polizia). Marco Tronchetti Provera di Pirelli è stato contattato ma non è caduto nella trappola.
Secondo il World Economic Forum, questi non sono casi isolati ma la punta dell’iceberg di un fenomeno che sta crescendo esponenzialmente.
La corsa senza fine tra il bene e il male
Mentre parliamo, la tecnologia continua a evolversi. I nuovi “diffusion models” – gli stessi che alimentano DALL-E e Midjourney – stanno rendendo i deepfake ancora più realistici. Ma anche le difese si stanno affinando.
Intel ha sviluppato FakeCatcher, un sistema che analizza i segnali biologici attraverso lo schermo del computer, raggiungendo il 96% di accuratezza. Reality Defender usa l’intelligenza artificiale per combattere l’intelligenza artificiale. E startup come Sensity promettono accuratezze del 95-98%.
Ma è una corsa che non finirà mai. Ogni nuova difesa porterà a un nuovo attacco, ogni nuovo rilevatore a un nuovo modo di ingannarlo.
Come proteggere voi stessi e le persone che amate
La protezione inizia dalle piccole cose. Rendete privati i vostri profili social: meno foto pubbliche significano meno materiale per creare deepfake di voi. Non fidatevi di videochiamate inaspettate, soprattutto se qualcuno vi chiede soldi o informazioni sensibili.
E soprattutto, educate le persone intorno a voi. Secondo le statistiche dell’FBI, gli anziani sono particolarmente vulnerabili a queste truffe. Una conversazione con i vostri genitori o nonni potrebbe salvare loro migliaia di euro.
Il nuovo mondo che ci aspetta
Stiamo entrando in un’era dove la frase “l’ho visto con i miei occhi” non sarà più una garanzia di verità. È un cambiamento epocale, paragonabile all’invenzione della stampa o di internet. E come ogni grande cambiamento, porta con sé opportunità e pericoli.
I deepfake non sono solo una minaccia. Nel cinema stanno rivoluzionando gli effetti speciali, nell’educazione permettono di far “parlare” personaggi storici, nell’arte stanno creando nuove forme di espressione.
Ma il lato oscuro è innegabile. E la responsabilità di navigare in questo nuovo mondo ricade su tutti noi.
La nuova alfabetizzazione digitale
Come abbiamo imparato a leggere e scrivere, ora dobbiamo imparare a “leggere” i media digitali. È una competenza che dovremo insegnare ai nostri figli, come una volta insegnavamo a non accettare caramelle dagli sconosciuti.
Il Government Accountability Office americano ha definito i deepfake una delle maggiori minacce alla sicurezza nazionale del XXI secolo. Ma la vera sicurezza non verrà solo dalla tecnologia o dalle leggi. Verrà dalla nostra capacità di rimanere critici, curiosi, e sempre un po’ scettici di fronte a quello che vediamo online.
L’importanza di rimanere umani
In un mondo dove le macchine imparano a mentire meglio degli esseri umani, la nostra umanità diventa la nostra forza più grande. L’intuizione, l’empatia, la capacità di fare domande scomode: queste sono le armi che nessuna intelligenza artificiale potrà mai toglierci.
Quando vedete un video che vi fa arrabbiare, che vi sciocca, che vi spinge a condividere immediatamente, fermatevi. Respirate. Chiedetevi: chi ha interesse a farmi provare queste emozioni? Cosa guadagna se io credo a questo video?
Spesso, la risposta a queste domande vi dirà più di qualsiasi algoritmo di rilevamento.
Il futuro è nelle nostre mani
I deepfake non spariranno. Diventeranno più sofisticati, più diffusi, più difficili da riconoscere. Ma questo non significa che dobbiamo arrenderci alla post-verità.
Significa che dobbiamo diventare più intelligenti, più critici, più collaborativi. Significa che dobbiamo sostenere il giornalismo di qualità, educare le nuove generazioni, e non smettere mai di fare domande.
Perché alla fine, in un mondo pieno di bugie perfette, la verità ha ancora un valore inestimabile. E siamo noi a doverla proteggere.
La prossima volta che vedrete un video che sembra troppo bello (o troppo brutto) per essere vero, ricordatevi del caso Arup e dei suoi 25,6 milioni di dollari. E ricordatevi che in un mondo di deepfake, la vostra capacità di dubitare potrebbe essere la cosa più preziosa che possedete.
Fonti:
Platone. Fedro. 370 a.C. Traduzione italiana consultata: Platone, Fedro, a cura di M. Bonazzi, Einaudi, Torino, 2011.
Machiavelli, N. Il Principe. 1513. Cap. XVIII “Quomodo fides a principibus sit servanda”. Edizione consultata: Machiavelli, Il Principe e Discorsi, Feltrinelli, Milano, 1960.
Arendt, H. Le origini del totalitarismo. 1951. Traduzione di Amerigo Guadagnin, Einaudi, Torino, 2004. ISBN 978-88-06-16935-0.
Orwell, G. 1984. 1949. Secker & Warburg, Londra.
World Economic Forum. “Deepfakes are here to stay and we should remain vigilant.” Report 2025.
