Brad Parscale, Israele e l'AI il contratto da 9 milioni per orientare le risposte di ChatGPT, Claude e Gemini

Brad Parscale, Israele e l’AI: il contratto da 9 milioni per orientare le risposte di ChatGPT, Claude e Gemini

Il governo di Israele sembra aver pagato 9 milioni di dollari a Clock Tower X, la società di Brad Parscale, già direttore digitale della campagna presidenziale di Donald Trump nel 2016 e poi campaign manager dal febbraio 2018 al luglio 2020, con l’obiettivo di orientare le risposte di ChatGPT, Claude e Gemini sul conflitto in Medio Oriente.

È la sintesi dell’inchiesta pubblicata ad aprile 2026 da Axios, che documenta in modo organico una strategia statale di influenza sui chatbot di intelligenza artificiale. Quella che si profila è una nuova frontiera della propaganda, una frontiera che non passa più dai giornali, dalle televisioni o dagli account social a pagamento, ma direttamente dalle risposte che i modelli generativi restituiscono ogni giorno a centinaia di milioni di utenti.

Il contratto fra Israele e Clock Tower X è stato registrato ai sensi del Foreign Agents Registration Act statunitense con il numero 7649: foreign principal il Ministero degli Affari Esteri israeliano, importo iniziale di 6 milioni di dollari, depositato il 18 settembre 2025 e successivamente rinegoziato a quota 9 milioni. L’obiettivo formale è produrre contenuti pro-Israele su scala industriale; quello operativo, ben più innovativo, è influenzare le risposte dei modelli linguistici di OpenAI, Anthropic e Google.

Cos’è la “Search and Language Operation” di Israele per orientare i chatbot AI

Il contratto stipulato fra Israele e la società di Parscale, intermediato dalla branch tedesca dell’agenzia pubblicitaria francese HAVAS Media, contiene una clausola che gli analisti considerano senza precedenti. Si chiama “Search and Language Operation” ed è descritta nell’inchiesta dell’investigative journalist Jack Poulson come un dispositivo pensato non solo per orientare i risultati dei motori di ricerca tradizionali, ma per influenzare direttamente “gli output conversazionali di ChatGPT e di piattaforme di intelligenza artificiale come Claude”, agendo sui percorsi linguistici relativi a Israele.

Il quotidiano israeliano Haaretz, che ha contribuito alla ricostruzione, ha qualificato l’operazione come «potenzialmente il primo sforzo statale documentato per orientare il discorso dei chatbot AI». La cautela di quel “potenzialmente” è dovuta. Resta però il salto qualitativo rispetto alle classiche operazioni di influenza online: la strategia agisce non sulla persuasione del singolo utente, ma sull’infrastruttura cognitiva attraverso cui l’utente si forma un’opinione.

Come funziona la strategia di Brad Parscale: data poisoning e manipolazione dei modelli AI

I modelli linguistici di grandi dimensioni (ChatGPT di OpenAI, Claude di Anthropic, Gemini di Google) costruiscono le loro risposte attingendo a un enorme corpus di testi e, sempre più spesso, a contenuti recuperati in tempo reale dal web. È in questa seconda fase, quella del “retrieval”, che si inserisce la strategia di Parscale.

Secondo la ricostruzione di Axios, il team di Clock Tower X ha sviluppato il progetto in collaborazione con Market Brew, una società di modellazione di motori di ricerca e AI nella quale la holding di Parscale detiene una partecipazione. Sono stati creati nove siti web costruiti specificamente per imitare il tipo di contenuti che le AI tendono a privilegiare quando rispondono a domande su Medio Oriente, terrorismo o diritto internazionale. Tra questi, paxpoint.org, presentato come una piattaforma che «sottolinea l’impegno costante di Israele per la pace e la coesistenza», e factsignal.org, dove si argomenta come «la designazione di Hamas come organizzazione terroristica rifletta un consenso globale».

L’idea è semplice e, al tempo stesso, sofisticata: se i modelli generativi tendono a estrarre informazioni dai siti che giudicano più affidabili e pertinenti rispetto a una determinata query, basta riempire la rete di contenuti ottimizzati con quel preciso scopo per modificare, gradualmente, ciò che l’AI considera “vero” o “rilevante”.

Quanto vale il contratto fra Israele e Brad Parscale: 9 milioni di dollari e 50 milioni di impression al mese

Le dimensioni dell’operazione si misurano in numeri imponenti. Il contratto prevede la produzione di almeno 100 contenuti “core” al mese (video, audio, testi e materiali grafici), accompagnati da 5.000 “versioni derivate” pensate per la viralità. Come riportato in un dossier della National Interest Foundation, l’80% del materiale deve essere calibrato sulla Generazione Z e distribuito su TikTok, Instagram, YouTube e podcast, con un obiettivo minimo di 50 milioni di impression mensili.

Stando ai documenti depositati dalla società ai sensi del Foreign Agents Registration Act statunitense e analizzati da Truthout, l’apparato di Parscale ha distribuito i contenuti attraverso almeno undici diversi marchi, una stratificazione che rende complesso, per l’utente medio, ricondurre il messaggio alla sua fonte istituzionale.

Cos’è Project Max: la strategia AI del Ministero della Diaspora israeliano

L’iniziativa di Parscale non è un episodio isolato, ma si inserisce in un’architettura più ampia. Sul piano operativo va distinta dal cosiddetto “Project Max”, piano elaborato sotto la divisione “Voices of Israel” del Ministero degli Affari della Diaspora, che condivide finalità affini ma ha una governance separata. Lo ricostruisce un’inchiesta pubblicata da Israel-Palestine News, che cita documenti interni in cui il piano viene descritto come uno strumento per «combattere la delegittimazione di Israele» attraverso AI e analisi dei big data.

Stando alla stessa inchiesta, dal 2018 il governo israeliano avrebbe convogliato attraverso vari canali oltre 100 milioni di dollari in campagne mediatiche dirette al pubblico statunitense. Il contratto con Clock Tower X, dunque, rappresenta solo l’ultimo e più sofisticato capitolo di un’operazione strutturale di soft power.

Quanto è efficace la propaganda AI di Israele? Il test di Axios su ChatGPT

Nonostante l’ampiezza dell’investimento, l’efficacia reale della strategia rimane oggetto di dibattito. Il team di Parscale ha dichiarato ai giornalisti di Axios di «registrare risultati positivi», con i sistemi AI che «incorporano informazioni dai siti nelle loro risposte». L’azienda non ha però fornito dati pubblici a sostegno dell’affermazione. Quando i giornalisti hanno condotto un test su ChatGPT, ponendo domande su Israele e Hamas formulate con il linguaggio dei siti creati dal team di Parscale, nessuno dei nove portali è stato citato nelle risposte.

Va segnalato un elemento di chiarezza, ben sottolineato dal lavoro di verifica di Snopes: non esiste alcun accordo formale fra il governo israeliano e OpenAI, Anthropic o Google. Le aziende di intelligenza artificiale non sono parte del contratto e, almeno secondo le informazioni disponibili al pubblico, non hanno modificato i loro modelli su input di Tel Aviv. La strategia di Parscale agisce dall’esterno, sull’ecosistema informativo che le AI usano come materia prima, non sull’addestramento diretto dei modelli.

AI Act e Digital Services Act: come l’Europa regola la trasparenza dei chatbot

Resta però aperta una questione tecnica e politica di enorme portata: in che misura i grandi modelli linguistici sono vulnerabili a operazioni di “data poisoning” mirate? La domanda è centrale anche per i regolatori. Il Regolamento europeo sull’intelligenza artificiale, entrato in vigore nell’agosto 2024, prevede un’applicazione scaglionata: gli obblighi per i fornitori di modelli di IA general-purpose sono diventati applicabili il 2 agosto 2025, mentre la maggior parte delle disposizioni sostanziali, comprese quelle sulla trasparenza, entrerà in piena applicazione il 2 agosto 2026. I modelli generativi rientrano fra quelli soggetti a obblighi di trasparenza sul corpus di addestramento, anche se gli strumenti di enforcement sono ancora in fase di consolidamento.

Sul fronte delle piattaforme, il Digital Services Act impone ai gestori delle Very Large Online Platforms l’obbligo di valutare i rischi sistemici, inclusi quelli legati alla disinformazione coordinata. Ma quando la disinformazione si manifesta non come contenuto virale, bensì come “training feed” per un’intelligenza artificiale, il quadro normativo mostra le sue zone d’ombra.

Perché la manipolazione dell’AI cambia le regole della propaganda di Stato

Quello che rende il caso Parscale-Israele un punto di svolta non è il fine, ovvero l’influenza sull’opinione pubblica internazionale, ma il mezzo. La storia della propaganda di Stato è lunga, e include manuali di disinformazione raffinati come quelli analizzati dal Servizio europeo per l’azione esterna nel suo monitoraggio EUvsDisinfo. Mai prima d’ora, secondo Haaretz, era però stato documentato pubblicamente un governo che mette per iscritto, in un contratto con un’agenzia esterna, l’obiettivo di orientare le risposte di un’intelligenza artificiale conversazionale.

L’aspetto più rilevante, dal punto di vista politico-comunicativo, è la natura stessa del bersaglio. I chatbot non sono soltanto motori di ricerca evoluti: sono interlocutori percepiti come neutrali, autorevoli, sintetici. Quando un utente chiede a ChatGPT chi siano i responsabili di un determinato evento bellico, riceve una risposta in prosa che ha il tono e la struttura di una verità accertata. Se quella risposta è il prodotto, anche solo parziale, di una rete di siti progettati per essere “letti” dall’AI, l’effetto manipolatorio si amplifica esponenzialmente rispetto a un post sponsorizzato su una piattaforma social.

Cosa dicono OpenAI, Anthropic e Google sulla manipolazione dei chatbot

Né OpenAI, né Anthropic, né Google hanno rilasciato dichiarazioni pubbliche specifiche sul caso Clock Tower X, almeno nelle ricostruzioni giornalistiche al momento disponibili. Ciascuna delle tre aziende ha tuttavia, in altri contesti, ammesso l’esistenza del problema strutturale del “data contamination”. OpenAI ha pubblicato a cadenza periodica i suoi report di threat intelligence sulle “influence operations”, Anthropic ha codificato nelle proprie usage policies il divieto di impiegare Claude per generare disinformazione politica e interferire con processi democratici, e Google ha integrato nel proprio sistema di restrizioni elettorali per Gemini misure specifiche per contenere l’uso manipolativo dei modelli.

Ciò che le tre aziende non possono evitare, però, è che il “mondo esterno” dal quale i modelli attingono informazioni venga deliberatamente inquinato. Il caso israeliano, in questo senso, mostra il limite strutturale dei sistemi attuali: non basta moderare gli output, occorrerebbe poter qualificare gli input.

Quando la propaganda diventa infrastruttura: rischi per le piattaforme AI

La portata dell’operazione svelata da Axios va oltre il singolo caso. Il Business and Human Rights Centre ha richiesto formalmente alle aziende coinvolte una replica, sottolineando come il caso ponga questioni di responsabilità per le piattaforme, gli intermediari pubblicitari e i fornitori di servizi AI.

Il nodo è strutturale. Se un governo investe nove milioni di dollari per provare a modificare le risposte di tre chatbot, è ragionevole attendersi che altri attori statali, in Asia, in Europa orientale, nel Golfo, in Sud America, stiano elaborando o abbiano già elaborato strategie analoghe. La conseguenza è che la trasparenza sulle fonti diventa, per l’utente, un imperativo civile. E per le aziende AI, una necessità competitiva: un modello le cui risposte si dimostrassero sistematicamente influenzate da una rete di siti riconducibili a un’operazione di propaganda perderebbe rapidamente credibilità presso il pubblico più informato.

Perché la Gen Z è il bersaglio principale della campagna AI di Israele

Un dettaglio merita un’ultima sottolineatura. Il contratto identifica nella Generazione Z il bersaglio strategico dell’80% dei contenuti, distribuiti su TikTok, Instagram, YouTube e podcast. Come ricostruisce The New Arab, la scelta del target Gen Z è una risposta al calo di sostegno a Israele registrato fra i più giovani americani dopo l’inizio della guerra a Gaza. Per quei giovani, già abituati a “chiedere a ChatGPT” prima ancora che a Google, la qualità delle risposte AI sul conflitto non è un dettaglio: è un capitolo decisivo della loro formazione politica.

Conclusione: come difendere l’integrità informativa dei sistemi AI

Il caso Parscale-Clock Tower X-Israele segna un confine. Non perché introduca uno strumento radicalmente nuovo, dato che l’inquinamento informativo via siti satelliti è una tecnica classica della disinformazione digitale, ma perché lo applica per la prima volta, con investimenti pubblici e un contratto formalizzato, alla manipolazione dei sistemi generativi che stanno rapidamente diventando il principale canale di accesso alla conoscenza per centinaia di milioni di persone.

La risposta possibile si gioca su tre piani interdipendenti. C’è un piano normativo, che richiede di estendere agli output dei modelli AI la stessa logica di trasparenza già applicata alle piattaforme social. C’è un piano industriale, che impone alle aziende di intelligenza artificiale di sviluppare strumenti più sofisticati di provenance tracking, capaci di distinguere fonti autentiche da reti coordinate di influenza. E c’è un piano civico, che riguarda gli utenti: la consapevolezza che un chatbot non è un oracolo, ma uno strumento il cui valore dipende dall’integrità dell’ecosistema informativo che lo nutre.

In questo senso, l’inchiesta di Axios, al di là della specifica vicenda israeliana, vale come segnale di allarme di portata generale. La guerra dell’informazione ha cambiato campo di battaglia. Si combatte ora dentro la conversazione apparentemente neutra fra un essere umano e un modello linguistico. E le regole d’ingaggio, per ora, le sta scrivendo chi ha il portafoglio più grande.

Condividi sui Social Network:

Ultimi Articoli