App di invecchiamento facciale con IA: rischi per la privacy, sicurezza informatica e uso dei dati biometrici
Negli ultimi anni, le applicazioni basate su intelligenza artificiale che simulano l’invecchiamento del volto – come FaceApp, ZAO, Reface, YouCam Makeup e AgingBooth – hanno riscosso un successo virale. Tuttavia, dietro la promessa ludica e apparentemente innocua di “vedersi tra trent’anni” si celano gravi implicazioni legate alla raccolta occulta di dati biometrici, alla non conformità al GDPR e a minacce concrete alla sicurezza informatica.
Tecnologia IA e raccolta dati biometrici nei selfie
Le app di photo-editing che promettono di “invecchiare” digitalmente il volto sfruttano sofisticate tecniche di intelligenza artificiale (IA). Tipicamente utilizzano reti neurali generative (GAN) che richiedono di inviare il selfie a potenti server remoti per essere elaborato. L’applicazione FaceApp – simbolo di questa moda – non funziona offline perché l’algoritmo di aging viene eseguito nel cloud. In altre parole, le foto caricate dall’utente transitano attraverso server – spesso ubicati fuori dall’Europa – e possono venire archiviate indefinitamente. La privacy degli utenti è dunque messa a rischio da questi passaggi invisibili: oltre all’immagine inviata, l’app può raccogliere metadata, dati di navigazione o altre informazioni biometriche senza un chiaro consenso.
Le caratteristiche del volto umano (distanze fra occhi, forma del naso, struttura facciale) sono per definizione dati biometrici, ossia informazioni personali particolarmente sensibili. In base al GDPR (Regolamento UE 2016/679), il trattamento di dati biometrici richiede sempre il consenso esplicito dell’interessato.
Nel caso delle app come FaceApp, spesso questo consenso non viene nemmeno richiesto: l’utente acconsente implicitamente all’accesso alle foto e alla fotocamera, ma non viene informato né esercita alcun controllo sui fini del trattamento. Come sottolinea l’avv. Martorana, le tipiche privacy policy di queste app contengono clausole generiche e licenze “perpetue e irrevocabili” sull’uso delle immagini. In pratica, chi usa l’app rischia di perdere il controllo sui propri dati biografici: il contratto di licenza consente alla società di modificare, distribuire e sfruttare liberamente le foto dell’utente, addirittura a fini commerciali. Dato che il riconoscimento facciale è ormai considerato tecnologia ad “alto rischio” in sede europea, tali modalità opache violano il principio del privacy by design sancito dal GDPR.
Elaborazione remota vs. offline: rischi biometrico‑cloud
Molte app di aging facciale, come FaceApp, ZAO e Reface, inviano i selfie degli utenti a server remoti – spesso situati fuori dall’Unione Europea – dove i dati vengono elaborati tramite algoritmi generativi (GAN) o modelli di diffusion. Questa elaborazione cloud consente performance avanzate, ma espone l’utente a rischi considerevoli in termini di tracciabilità, profilazione e conservazione non regolamentata dei dati biometrici. Al contrario, app offline come AgingBooth elaborano localmente le immagini, evitando il trasferimento a terze parti. Tuttavia, anche queste ultime possono raccogliere in background identificatori di dispositivo, dati di localizzazione o telemetria diagnostica, eludendo le protezioni previste dal GDPR, in violazione dei principi di data minimization e privacy by design.
Casi studio internazionali: FaceApp, ZAO e YouCam
L’app russa FaceApp è forse il caso più emblematico. Il Senatore statunitense Charles Schumer ha chiesto al FBI e alla FTC di indagare sull’app per via delle sue policy poco trasparenti e per la gestione dei dati attraverso server non localizzati chiaramente. L’informativa dell’app concede all’azienda una licenza irrevocabile, perpetua e trasferibile sull’uso delle immagini, senza alcuna limitazione territoriale. Sebbene FaceApp dichiari di cancellare i dati entro 48 ore, non esistono garanzie verificabili sull’effettiva applicazione di questa misura.
In Cina, l’app ZAO ha suscitato scalpore per aver richiesto agli utenti di cedere tutti i diritti sul proprio volto digitale, inclusi usi commerciali futuri. La pressione pubblica ha costretto gli sviluppatori a rivedere le policy, ma il caso ha mostrato chiaramente come queste tecnologie possano superare i confini della legalità sfruttando il fascino dell’intelligenza artificiale generativa.
Un altro esempio interessante è YouCam Makeup, che implementa filtri di invecchiamento e miglioramento estetico tramite AR e IA. La privacy policy della casa madre (Perfect Corp) esplicita l’uso di dati biometrici, come geometrie facciali e video, per scopi di personalizzazione e marketing. I dati possono essere conservati fino a tre anni e condivisi con affiliati e fornitori. Pur offrendo una trasparenza maggiore rispetto ad altre app, rimane problematico il bilanciamento tra profilazione commerciale e reale consenso informato.
Truffe e app clone: ingegneria sociale e malware
Accanto alle app ufficiali, esiste un sottobosco di applicazioni fraudolente o clonate, spesso distribuite via canali non ufficiali o tramite campagne di phishing. Già nel 2019, ESET ha documentato il caso di una falsa “FaceApp Pro” promossa su YouTube e social media, che indirizzava gli utenti verso siti truffaldini con abbonamenti occulti o installazione di adware (es. MobiDash). Kaspersky ha segnalato app che simulavano crash post-installazione, nascondendo codice malevolo attivo in background per fini pubblicitari o estrazione di dati sensibili. Tali app sfruttano l’ingenuità dell’utente medio e l’effetto virale delle mode digitali per compromettere la sicurezza del dispositivo.
Biometria e variabilità temporale: implicazioni per il deepfake e la sicurezza
Le app di invecchiamento non si limitano a generare immagini modificate: manipolano intenzionalmente dati biometrici fondamentali, come tratti del volto, texture della pelle, e proporzioni morfologiche. Questa trasformazione altera i parametri su cui si basano i sistemi di autenticazione facciale, rendendoli vulnerabili a spoofing e attacchi deepfake. Le immagini alterate possono essere riutilizzate per eludere controlli biometrici, alimentare dataset illeciti o addestrare sistemi di riconoscimento senza consenso. Le contromisure tecniche includono l’adozione di architetture CNN-LSTM e metodi di rilevazione delle inconsistenze temporali, che però non sono ancora diffusi nella maggior parte delle implementazioni consumer.
Quadro normativo e tutele giuridiche
In Italia e in Europa la legge considera i dati biometrici come categoria speciale di dati personali. Il GDPR (art. 9) ne vieta il trattamento se non è basato sul consenso esplicito dell’interessato, a meno di eccezioni di interesse pubblico legiferate dallo Stato. Anche la normativa italiana (d.lgs. 196/2003, integrato dal GDPR) stabilisce che fuori dai casi di polizia non è possibile trattare immagini per riconoscimento facciale senza consenso.
Questo significa che qualsiasi app “aging” che analizza digitalmente il volto sta trattando dati biometrici (lo schema univoco del volto) e dunque richiede misure strettissime: informativa chiara, consenso libero e scopi ben circoscritti. Al momento però molti servizi online disattendono questi requisiti: non chiedono consenso speciale, non specificano categorie di destinatari o tempi di conservazione.
Ne consegue che in vari paesi europei – da tempo – organismi di controllo e tribunali sono intervenuti per vietare usi opachi di tecnologie facciali (per esempio la giurisprudenza italiana ha sospeso per legge l’uso del facial recognition in spazi pubblici). Si segnala anche la futura regolamentazione: l’AI Act europeo, attualmente in discussione, attribuisce ai sistemi di riconoscimento biometrico una qualificazione di alto rischio, imponendo ulteriori garanzie di trasparenza e sicurezza. In ambito giudiziario, pertanto, lo sviluppo di queste app impone l’analisi di possibili violazioni di privacy e sicurezza – a livello di società produttrici (ad esempio per incauto trasferimento dati extra-UE) e di store (quando sponsorizzano software non verificati).
Conclusioni e linee guida
In sintesi, le app di invecchiamento facciale IA rappresentano un caso esemplare di tecnologia ambigua: da un lato offrono effetti visivi spettacolari basati su IA avanzata, dall’altro nascondono gravi rischi di privacy e cybersecurity. Per gli esperti di sicurezza informatica è fondamentale riconoscere questo rischio su più livelli.
È raccomandabile utilizzare esclusivamente app ufficiali, scaricate da store certificati, e verificare attentamente le autorizzazioni richieste. Soprattutto, occorre essere consapevoli che ogni immagine facciale elaborata potrebbe alimentare database biometrici, anche a fini sconosciuti. In ambito aziendale o istituzionale, le organizzazioni dovrebbero eseguire audit dei servizi IA esterni, informando gli utenti sui pericoli e implementando misure di data minimization (per esempio anonimizzazione o cancellazione automatica dei file).
Sul piano legale, va sollecitata l’adozione di regolamenti chiari: i provider devono garantire il rispetto del GDPR (gestione consapevole delle immagini) e delle norme nazionali, con politiche trasparenti su conservazione e cancellazione dei dati (per esempio cancellazione automatica entro 48 ore come dichiarato da alcuni sviluppatori). In definitiva, il “divertimento” fugace di vedere il proprio volto invecchiato non deve far dimenticare la custodia della nostra identità biometrica: la sicurezza dei dati deve rimanere prioritaria nella diffusione di queste tecnologie.
Fonti:
Nevis Security. (2022). Do Selfie Apps and Filters Collect Biometric Data?
MDPI – Al-Dulaimi & Kurnaz. (2024). A Hybrid CNN-LSTM Approach for Precision Deepfake Detection.
