Andrea Pavan durante il suo intervento al Forum ICT Security 2025 mentre illustra i rischi e le implicazioni dell’ AI

Il prezzo nascosto dell’AI: quando i tuoi dati diventano merce di scambio

L’intervento di Andrea Pavan di Beliven al Forum ICT Security 2025 svela i rischi che le Big Tech preferiscono non raccontare.

C’è una narrazione dominante sull’intelligenza artificiale che rischia di gettare fumo negli occhi. ChatGPT, Copilot, Gemini, Claude: strumenti presentati come bacchette magiche capaci di moltiplicare la produttività, automatizzare il lavoro ripetitivo, rendere accessibile a tutti ciò che prima richiedeva competenze specialistiche. La promessa è seducente, i risultati spesso impressionanti. Ma c’è un prezzo da pagare, e non è quello dell’abbonamento premium.

Al 23° Forum ICT Security, Andrea Pavan di Beliven ha squarciato il velo su una realtà che molti preferiscono ignorare: ogni prompt che digitiamo, ogni documento che carichiamo, ogni conversazione che intratteniamo con un assistente AI alimenta un ecosistema di dati su cui abbiamo sempre meno controllo. E le conseguenze, per aziende e privati, possono essere molto più serie di quanto si immagini.

L’AI come l’elettricità: una metafora da prendere sul serio

“AI / Nuovo inizio – Come l’elettricità alla fine dell’Ottocento”

Il paragone proposto nell’intervento non è casuale. L’intelligenza artificiale oggi presenta caratteristiche analoghe a quelle dell’energia elettrica alla fine dell’Ottocento: è una tecnologia pervasiva, abilita l’automazione su scala prima impensabile, apre possibilità di riorganizzazione del lavoro e, aspetto cruciale, genera dipendenza.

Chi, oggi, potrebbe rinunciare all’elettricità? Allo stesso modo, chi potrà permettersi di ignorare l’AI nei prossimi anni? La risposta è evidente: nessuno. Ma proprio per questo diventa fondamentale comprenderne non solo il potenziale, ma anche i rischi e le applicazioni corrette. Come ha sottolineato il relatore, chi saprà governare questa transizione sarà avvantaggiato; chi la subirà passivamente rischia di trovarsi esposto a vulnerabilità che oggi fatica persino a immaginare.

Beliven, tech company del Friuli Venezia Giulia con circa quaranta sviluppatori e partecipazioni in quattro startup tecnologiche, si occupa quotidianamente di realizzare soluzioni software personalizzate integrando l’intelligenza artificiale. Il focus dell’intervento, però, non era celebrativo: l’obiettivo dichiarato era quello di evangelizzare le aziende sui rischi concreti e sulle strategie per affrontarli.

Entro il 2030, il 90% dei contenuti sarà generato dall’AI

“AI Generativa / Attenzione” con dati sul 90% dei contenuti

Le proiezioni parlano di un futuro in cui la stragrande maggioranza di ciò che leggeremo, vedremo e ascolteremo online sarà prodotto da sistemi di intelligenza artificiale generativa. Un dato che solleva interrogativi profondi: come distingueremo il vero dal verosimile? Chi sarà responsabile delle informazioni errate? E soprattutto, dove finiranno tutti i dati che alimentano questa produzione di massa?

L’intervento ha messo in luce tre criticità fondamentali dei Large Language Model che troppo spesso vengono taciute. Primo: gli LLM non si occupano di dire la verità. Generano risposte statisticamente plausibili, non necessariamente accurate. Il loro obiettivo è produrre testo coerente, non verificare fatti. Secondo: non sono infallibili né illimitati. Hanno limiti di contesto, possono “allucinare” informazioni inesistenti, e le loro prestazioni variano enormemente in base al dominio. Terzo, e forse più importante: i datacenter che li ospitano non sempre sono GDPR compliant, e di base molti provider utilizzano i dati inseriti dagli utenti per addestrare e migliorare i propri modelli.

Quest’ultimo punto merita un approfondimento. Quando un dipendente carica un documento riservato su ChatGPT per farselo riassumere, quando un programmatore incolla codice proprietario per chiedere una revisione, quando un manager condivide dati di vendita per ottenere un’analisi: tutte queste informazioni entrano in un sistema su cui l’azienda non ha alcun controllo. E potrebbero non uscirne mai.

Il paradosso della proprietà: di chi è l’output generato?

La questione della proprietà intellettuale sui contenuti generati dall’AI è tutt’altro che risolta. Durante l’intervento è stato mostrato un estratto significativo delle policy di OpenAI: l’utente mantiene i diritti sull’input e possiede l’output. Fin qui, tutto bene. Ma la formulazione legale lascia spazio a interpretazioni inquietanti.

Come ha evidenziato il relatore, esiste sempre una clausola che, da un punto di vista legale, lascia intendere che in futuro ci potrebbe essere una rivendicazione da parte di strumenti come OpenAI sulla sovranità del dato generato. In altre parole: oggi l’output è tuo, domani potrebbe non esserlo più. E le policy, come vedremo, cambiano con una frequenza allarmante.

Tutto quello che non dicono sulla privacy

Il cuore dell’intervento ha affrontato il tema più scottante: la gestione dei dati da parte delle Big Tech. La policy di Google del 2023 si riserva il diritto di usare praticamente tutto ciò che viene pubblicato online per addestrare le proprie AI. Non solo i contenuti caricati volontariamente sulle piattaforme Google, ma potenzialmente qualsiasi cosa indicizzata dal motore di ricerca.

Il rischio, tradotto in termini concreti, è questo: immaginate di condividere con un assistente AI un esame medico, un contratto riservato, un pezzo di codice che rappresenta il vostro vantaggio competitivo. Dove finiscono queste informazioni? Per quanto tempo vengono conservate? Chi può accedervi? E soprattutto: verranno usate per addestrare modelli che poi risponderanno anche ai vostri concorrenti?

Le risposte a queste domande sono spesso sepolte in documenti legali di decine di pagine, scritti in legalese incomprensibile, che cambiano unilateralmente senza un reale consenso informato. Come ha osservato il relatore, riceviamo continuamente email di aggiornamento delle policy che raramente leggiamo. Nel frattempo, le regole del gioco cambiano.

Un fenomeno particolarmente insidioso riguarda le PMI. Dialogando con tantissime piccole e medie imprese, emerge spesso che il dipendente o la persona di turno utilizza sistemi esterni rispetto agli strumenti aziendali per elaborare informazioni che sono dati del cliente. Il documento riservato viene caricato su ChatGPT personale, il codice sorgente finisce su GitHub Copilot, l’analisi finanziaria passa per un tool AI gratuito. E l’azienda perde completamente traccia di dove siano finiti i propri asset informativi.

Una tassonomia dei rischi: dall’input al processing

“Data Privacy / Esempi di rischio”

 

L’intervento ha proposto una classificazione sistematica dei rischi che merita di essere analizzata nel dettaglio, perché aiuta a comprendere la complessità del problema.

Rischi lato User Input. La prima linea di vulnerabilità è quella dell’utente stesso. La divulgazione involontaria di dati sensibili è il rischio più comune: si carica un file senza rendersi conto che contiene informazioni riservate, si copia un testo che include riferimenti a clienti o partner. A questo si aggiunge l’assenza di controlli d’accesso adeguati: chi può usare gli strumenti AI in azienda? Con quali limiti? La scarsa formazione e consapevolezza del personale amplifica il problema, mentre la manipolazione fraudolenta dei prompt apre scenari di social engineering di nuova generazione.

Rischi lato Provider Interface e API. Il secondo livello riguarda l’interfaccia con il provider. L’intercettazione dei dati durante la trasmissione e la crittografia insufficiente sono rischi tecnici noti ma spesso sottovalutati. Più subdolo è il phishing attraverso la clonazione delle interfacce: siti che replicano l’aspetto di ChatGPT o altri tool per carpire credenziali e informazioni.

Rischi lato LLM Processing. Il terzo livello è forse il più opaco. Le inferenze involontarie sui dati inseriti permettono al sistema di dedurre informazioni che l’utente non intendeva condividere. La conservazione di dati sensibili oltre i termini dichiarati, le analisi comportamentali sui log di utilizzo, il rischio di cessione a terzi e le politiche di conservazione non conformi al GDPR completano un quadro preoccupante.

Ma i rischi non si fermano qui. Come ha sottolineato il relatore, non è un servizio fine a se stesso: c’è anche una distribuzione del dato su altre piattaforme. I servizi AI sono interconnessi, si appoggiano a infrastrutture cloud di terze parti, utilizzano API che a loro volta possono coinvolgere altri attori. La catena di custodia del dato diventa rapidamente inestricabile.

Quando i giganti cadono: casi concreti di violazioni

La teoria trova purtroppo abbondante conferma nella cronaca recente. L’intervento ha passato in rassegna una serie di incidenti che dimostrano come anche i player più blasonati non siano immuni da errori, vulnerabilità e scelte discutibili.

ChatGPT Data Breach, marzo 2023. Una falla nel sistema espone conversazioni private e informazioni di pagamento degli abbonati. Non dati anonimi o aggregati: conversazioni reali di utenti reali, con tanto di dettagli delle carte di credito.

Il caso Amazon. Il colosso dell’e-commerce vieta esplicitamente ai propri programmatori di usare ChatGPT per revisionare il codice interno. Il motivo? Le risposte generate dal sistema avevano iniziato a riportare dati simili a quelli interni di Amazon. Un segnale inequivocabile che i dati inseriti dagli utenti influenzano le risposte fornite ad altri.

La vulnerabilità del “repeat forever”. Prima che OpenAI intervenisse per bloccarla, esisteva una tecnica per far rivelare a ChatGPT dati di addestramento identificativi: bastava chiedere al sistema di ripetere una parola infinite volte. A un certo punto, il modello iniziava a “vomitare” frammenti di testo provenienti dal training set, incluse informazioni personali.

EchoLeak, giugno 2025. Una delle vulnerabilità più recenti e sofisticate ha colpito Microsoft 365 Copilot. Si tratta di una “zero-click prompt injection”: attraverso email di phishing elaborate automaticamente da Copilot, era possibile manipolare il sistema per estrarre informazioni dall’ecosistema Microsoft dell’utente. In pratica, l’AI che doveva proteggere diventava il vettore dell’attacco.

Otter.ai e le trascrizioni non autorizzate. Il servizio di trascrizione automatica delle riunioni è finito al centro di una causa legale per autorizzazioni insufficienti. Un problema particolarmente rilevante considerando che spesso i bot di trascrizione gratuiti si appoggiano a terze parti per gestire i dati, moltiplicando i punti di vulnerabilità.

Replika e la gestione dei minori. L’applicazione che permette di creare “chat partner” virtuali ha ricevuto una sanzione significativa per la gestione inadeguata dei dati dei minorenni. Non veniva effettuata una vera validazione sull’età degli utenti, esponendo bambini e adolescenti a interazioni potenzialmente dannose.

DeepSeek Data Breach. I database contenenti le informazioni degli utenti del sistema AI cinese sono stati esposti pubblicamente, dimostrando che i problemi di sicurezza non sono un’esclusiva occidentale.

Il caso LinkedIn: quando la policy cambia sotto i piedi

Il caso più recente e forse più emblematico riguarda LinkedIn. All’inizio di novembre 2025, Microsoft ha annunciato che i dati presenti sulla piattaforma professionale potranno essere utilizzati per il training dei propri modelli di AI. Post, articoli, commenti, informazioni del profilo: tutto può diventare materiale di addestramento.

L’unica difesa? Una spunta nascosta nelle impostazioni del profilo che permette di bloccare l’utilizzo dei propri dati. Una spunta che la stragrande maggioranza degli utenti non sa nemmeno esistere, e che comunque richiede un’azione positiva per essere attivata. Il default, naturalmente, è il consenso.

VOLUBILI/ CASO LINKEDIN

Il messaggio che emerge da questa carrellata è brutale nella sua chiarezza: anche gli strumenti più blasonati, anche le Big Tech con i loro eserciti di ingegneri e legali, commettono errori. E nel frattempo hanno accesso ai nostri dati. Non dati astratti: conversazioni, documenti, codice, analisi, strategie. Il patrimonio informativo di milioni di aziende e miliardi di individui.

La soluzione esiste: il concetto di GPT privato

Di fronte a questo scenario, rinunciare all’AI non è un’opzione realistica. I vantaggi competitivi che offre sono troppo significativi per essere ignorati. La domanda diventa quindi: come beneficiare dell’intelligenza artificiale senza esporsi a rischi inaccettabili?

L’intervento ha presentato il concetto di “GPT privato” come risposta a questa esigenza. Non si tratta di reinventare la ruota, ma di costruire un perimetro sicuro all’interno del quale sfruttare le potenzialità dell’AI generativa mantenendo il controllo sui propri dati.

I pilastri di questo approccio sono quattro

Sovranità dei dati e sicurezza. Le informazioni vengono gestite in un environment dedicato al cliente, senza transitare per infrastrutture condivise o datacenter di terze parti non controllabili. Il dato resta dove deve restare: all’interno dell’organizzazione.

Conformità e governance GDPR. La selezione di datacenter italiani o europei garantisce il rispetto delle normative sulla protezione dei dati. Non è solo una questione legale: è una questione di fiducia nei confronti di clienti e partner che affidano le proprie informazioni all’azienda.

Personalizzazione e integrazione. Un sistema AI cucito su misura può dialogare con i sistemi gestionali esistenti, accedere alle basi documentali interne, rispettare le policy aziendali. Non è un tool generico uguale per tutti: è uno strumento che conosce l’azienda e ne rispetta le specificità.

Trasparenza e auditabilità. Ogni interazione può essere tracciata, ogni accesso monitorato, ogni anomalia rilevata. L’azienda mantiene la visibilità completa su cosa succede ai propri dati.

Beliven ha sviluppato in questa direzione ClosyTalk, una soluzione che replica le funzionalità delle piattaforme di mercato ma all’interno di un ambiente controllato. L’applicativo web permette di generare risposte con e senza agenti specializzati, analizzare documenti creando knowledge base basate su tecnologie RAG (Retrieval-Augmented Generation), automatizzare compiti e interagire con modelli di AI sia privati che pubblici.

La flessibilità architetturale è un elemento chiave: il sistema può appoggiarsi a Foundation Model ospitati su cloud provider come Azure, Google Cloud o AWS, oppure funzionare in modalità completamente on-premise per le organizzazioni che richiedono il massimo livello di controllo.

Non serve una rivoluzione: l’approccio a step progressivi

L’ultimo messaggio dell’intervento riguarda la metodologia di adozione, e sfata un mito diffuso: non serve una rivoluzione per iniziare a beneficiare dell’AI in modo sicuro. Anzi, l’approccio raccomandato è esattamente l’opposto: partire leggeri, procedere per step, costruire competenza e consapevolezza prima di scalare.

La roadmap proposta si articola su quattro orizzonti temporali.

Bootstrap (0-6 mesi). La fase iniziale è dedicata alla formazione e alla sperimentazione controllata. Workshop, attività di accompagnamento, proof of concept su casi d’uso limitati. L’obiettivo non è trasformare l’azienda, ma far comprendere come questi strumenti possano aumentare la produttività e quali precauzioni adottare.

Quick Wins (6-12 mesi). Identificati i casi d’uso più promettenti, si passa all’implementazione di soluzioni che generano valore immediato con rischio contenuto. Automazione di task ripetitivi, assistenza alla redazione documentale, analisi di dati strutturati.

Enterprise (1-2 anni). La terza fase prevede l’integrazione profonda con i processi aziendali: connessione ai sistemi gestionali, creazione di agenti specializzati per le diverse funzioni, deployment su scala.

Transformative Innovation (3+ anni). L’orizzonte di lungo periodo è quello della trasformazione vera e propria: ripensamento dei processi, nuovi modelli di business abilitati dall’AI, vantaggio competitivo strutturale.

Questo approccio graduale ha un vantaggio fondamentale: permette all’organizzazione di sviluppare anticorpi. Ogni step costruisce consapevolezza sui rischi, competenza nell’utilizzo, capacità di governance. Quando si arriva alle fasi più avanzate, l’azienda non è più vulnerabile: ha imparato a muoversi in questo nuovo territorio.

Conclusione: governare la rivoluzione, non subirla

L’intelligenza artificiale generativa è davvero una rivoluzione paragonabile all’elettricità. E come per l’elettricità, la differenza tra chi ne beneficia e chi ne resta fulminato sta nella conoscenza: sapere come funziona, dove sono i pericoli, quali precauzioni adottare.

Le Big Tech hanno costruito strumenti straordinari, ma il loro modello di business si fonda sull’estrazione di valore dai dati degli utenti. Non è complottismo: è il loro bilancio. Ogni conversazione con ChatGPT, ogni documento caricato su Copilot, ogni prompt digitato su Gemini alimenta un sistema progettato per monetizzare quelle informazioni.

Per le aziende, la scelta non è tra usare l’AI o non usarla. È tra usarla consapevolmente, all’interno di un perimetro controllato, con strumenti che rispettano la sovranità del dato, oppure affidarsi ciecamente a piattaforme su cui non si ha alcun controllo, sperando che le policy non cambino, che i data breach non accadano, che i propri segreti industriali non finiscano nel training set di qualcun altro.

L’intervento di Andrea Pavan al Forum ICT Security 2025 ha avuto il merito di mettere sul tavolo questi temi con chiarezza e concretezza. Non per spaventare, ma per informare. Non per frenare l’innovazione, ma per permettere di cavalcarla in sicurezza.

Perché l’AI è qui per restare. La domanda è: saremo noi a governarla, o lei a governare noi?

Guarda il video dell’intervento completo:

Profilo Autore

Nello sviluppo software da sempre e voglio ringraziare questa disciplina perché mi ha permesso di lavorare con realtà importanti come il CERN di Ginervra. La vita da ingegnere si svolge in modo molto metodico e focalizzato ma dentro ho sempre nitrito un certo dinamismo.
Questa pulsione mi ha portato a fondare un’azienda e poi a dedicarmi al Business Development, iniziando a entrare un mondo ad alta variabilità: quello delle relazioni.
Oggi in Beliven uso il connubio di queste mie due vite seguendo i Cliente nella costruzione dei progetti più utili alla digitalizzazione e ottimizzazione dei loro processi.

Condividi sui Social Network:

Ultimi Articoli

ISCRIVITI ALLA NEWSLETTER DI ICT SECURITY MAGAZINE

Una volta al mese riceverai gratuitamente la rassegna dei migliori articoli di ICT Security Magazine

Rispettiamo totalmente la tua privacy, non cederemo i tuoi dati a nessuno e, soprattutto, non ti invieremo spam o continue offerte, ma solo email di aggiornamento.
Privacy Policy