l'impatto dell'intelligenza artificiale sulla sicurezza nazionale e le minacce cyber emergenti nel 2025

Intelligenza Artificiale e sicurezza nazionale: la metamorfosi irreversibile del panorama strategico globale

Viviamo un’epoca in cui la rivoluzione tecnologica conduce a vivere simultaneamente in più dimensioni, ridefinendo alla radice il concetto di sicurezza.

Questa liquidità è provocata dall’evoluzione della tecnologia, che pone al centro del dibattito il confronto tra intelligenza umana e artificiale come sfida decisiva per l’umanità[1].

Intelligenza artificiale e sicurezza nazionale: la nuova frontiera della cybersecurity

Gli otto contributi raccolti in questo numero dei QUADERNI DI CYBER INTELLIGENCE – collana nata dalla collaborazione tra la rivista ICT Security Magazine e la Società Italiana di Intelligence (SOCINT) – esplorano i rapporti tra Intelligenza Artificiale (IA) e sicurezza, offrendo un’ampia prospettiva su una trasformazione dagli esiti inevitabilmente incerti.

Il significato di questa pubblicazione risiede nella capacità di illuminare i diversi aspetti di una trasformazione inedita nella storia del mondo, che sta ridefinendo i concetti e gli strumenti della sicurezza, richiedendo innovative e mutanti risposte per contrastarla.

Come emerge dai contributi, non abbiamo ancora maturato piena coscienza dell’Intelligenza Artificiale e delle conseguenze che il suo sviluppo può comportare per la sicurezza delle società e delle istituzioni.

Il tema dell’Intelligenza Artificiale è contemporaneamente controverso e aperto, perché si confrontano posizioni del tutto opposte: da una parte c’è chi sostiene che l’intelligenza umana non potrà mai essere superata da quella artificiale, dall’altra chi invece ritiene esattamente il contrario.

Nello stesso tempo la situazione è aperta, in quanto si può verificare qualunque tipo di esito, poichè le circostanze sono davvero imprevedibili.

Di sicuro non abbiamo ancora maturato una coscienza dell’intelligenza artificiale, così come l’umanità ha realizzato con la minaccia nucleare.

Infatti, Norberto Bobbio aveva teorizzato una “coscienza atomica”, identificandola con la consapevolezza del genere umano sulle conseguenze dell’uso della bomba nucleare[2].

Consapevolezza che stiamo toccando con mano in questi ultimi anni: la Russia dispone della bomba nucleare ma non l’ha utilizzata e non la utilizzerà certamente nei confronti dell’Ucraina; Israele dispone della bomba nucleare, ma non l’ha utilizzata e non la utilizzerà certamente nei confronti di Hamas, dell’Iran o del Libano.

E c’è una differenza sostanziale: la bomba nucleare è in mano agli Stati, mentre l’Intelligenza Artificiale è controllata dai privati. Questo cambia tutto[1].

L’avvento dell’IA rappresenta una metamorfosi del mondo, perché l’umanità non sarà più come prima, in ogni caso[2].

Noi oggi stiamo utilizzando parole, concetti culturali, categorie mentali, teorie pedagogiche, norme giuridiche che fanno riferimento a un mondo in via di estinzione.

E se incerta è la definizione, incertissima ne sarà la comprensione.

Dal mio punto di vista, l’esempio più evidente è rappresentato dall’AI Act, con il quale l’Unione Europea – prima al mondo – sta provando a regolamentare l’Intelligenza Artificiale[3].

È un atteggiamento responsabile, in quanto dove non ci sono regole regna il Far West; e nel Far West, com’è noto, prevalgono sempre i più forti.

Bisogna però, nello stesso tempo, chiedersi come sia possibile disciplinare un fenomeno che si modifica di minuto e minuto con uno strumento rigido come la legge, soprattutto di derivazione dal diritto romano.

Nell’Unione vivono meno di 450 milioni di persone, sugli oltre 8 miliardi di abitanti del pianeta. E poi, soprattutto, quali piattaforme digitali europee regolamentiamo?

Si tratta di un provvedimento necessario, ma che rischia di rimanere in gran parte dimostrativo.

Nello stesso tempo, l’intelligenza artificiale sta mutando per sempre la struttura del lavoro.

Senza sapere degli algoritmi, quasi un secolo fa l’economista John Keynes aveva ipotizzato che il problema del futuro sarebbe stato il tempo libero[4].

Infatti, si ipotizza che nei prossimi anni lavoreremo solo un sesto della nostra esistenza: per cui scuole e università, oltre a insegnare a come si lavora e a trasmettere il sapere, dovranno insegnare a come si vive, per utilizzare in maniera vantaggiosa per noi e per la società il tempo libero di cui disporremo[5].

Tutti i lavori saranno profondamente investiti dall’intelligenza artificiale, inclusi quelli più celebrati, come il medico, il giudice e addirittura l’informatico, poiché tante funzioni di base svolte oggi dai programmatori verranno svolte dall’intelligenza artificiale generativa.

Anche il mondo dell’istruzione sarà per forza coinvolto. La Banca Mondiale ha condotto una ricerca in Nigeria, in una scuola di Benin City, sperimentando che l’utilizzo di un tutor di intelligenza artificiale generativa corrisponde a due anni di educazione tradizionale[1].

Bisognerà poi ovviamente verificare gli effetti indesiderati e non previsti, il ruolo degli insegnanti, le conseguenze nel lungo periodo. Si va però in questa direzione.

L’umanità dovrà trovare delle forme di resistenza, progettando per esempio algoritmi educativi, che si oppongano a quelli commerciali.

Oppure utilizzare i poteri nascosti della mente, quelli che venivano studiati durante la Guerra Fredda dalla CIA e dal KGB.

O addirittura stimolare la mente con sostanze naturali o artificiali, proprio quelle che ha utilizzato Steve Jobs, che nel 2007 ha lanciato l’iPhone cambiando il mondo[2].

L’integrazione tra persone e macchine, nell’ibridazione tra intelligenze umane e intelligenze artificiali, potrà comportare la salvezza o la dannazione dell’umanità.

Sono tutti temi controversi, urticanti, pericolosi: ma non possiamo precluderci nessuna strada, perché la guerra tra intelligenze potrebbe essere definitiva.

Le idee di Elon Musk si possono – e in alcuni casi si debbono – non condividere, ma sono estremamente chiare: l’IA è destinata a prevalere su quella umana, la terra è destinata a implodere e le forme di sopravvivenza si spostano nello spazio.

Uno scenario del genere mette a dura prova l’organizzazione sociale, che rischia di essere drammaticamente superata; e con essa il concetto stesso di sicurezza, che si allarga a dismisura.

Più tecnologia richiede più fattore umano.

Lo stesso obiettivo che si è posta la DARPA (Defense Advanced Research Projects Agency[3]), l’agenzia governativa americana che nel 1969 fu la culla di Internet e che nel 1994 avviò il programma “Augmented Cognition”[4].

Appunto per questo, l’Intelligence può rappresentare una riserva dell’umano, perché può avvicinarci alla sempre difficile comprensione della realtà.

L’Intelligence, dunque, è la forma più raffinata di intelligenza umana, perché consente di andare oltre le apparenze.

Di conseguenza ci serve per contestualizzare le informazioni, individuare quelle rilevanti, unire i punti, cogliere i segnali deboli, esercitare il pensiero laterale, verificare la credibilità delle fonti e, in definitiva, per difendere la democrazia da sé stessa e dalle sue inevitabili degenerazioni.

Occorre quindi considerare ogni fenomeno nella sua corretta natura, che è quella culturale, intendendo con “cultura” sia una visione del mondo e sia la capacità, più che di conoscere il passato, di anticipare il futuro[1].

Minacce cyber emergenti nell’era dell’IA

La profondità delle analisi emerge fin dal primo articolo, dove Alessio Garofalo esplora il fenomeno dell’Intelligenza Artificiale Avversaria con una lucidità che trascende la descrizione tecnica[2]. Il suo lavoro rivela come l’evoluzione delle minacce cibernetiche stia raggiungendo livelli di sofisticazione inimmaginabili, con sistemi intelligenti capaci di apprendere e adattarsi in tempo reale alle difese che incontrano. Il caso DeepLocker, citato nel saggio, rappresenta un campanello d’allarme sulla natura mutevole delle minacce contemporanee: la capacità di questi sistemi di rimanere dormienti, fino al riconoscimento di specifici indicatori del bersaglio, segna un salto qualitativo che rende superate quasi tutte le strategie difensive tradizionali[3].

La rapida e incontrollabile evoluzione delle minacce è stata approfondita nel lavoro di Fabrizio D’Amore sui Large Language Models (LLM)[4]. La metafora della “lama dalla punta spezzata” cattura l’essenza ambivalente di questi strumenti, potenti ma strutturalmente limitati, capaci tanto di accrescere le nostre capacità quanto di amplificare le vulnerabilità esistenti. L’analisi della dualità di questi sistemi nel contesto della cybersecurity evidenzia come l’efficacia della sicurezza risieda sempre più nella capacità di gestire questa ambivalenza tecnologica.

Lo studio di Francesco Arruzzoli sulla convergenza tra IA e calcolo quantistico sposta la discussione a livello globale[5]. L’esplorazione della competizione tra Stati Uniti e Cina nel campo dell’Intelligenza Artificiale Quantistica (QAI) mette in luce implicazioni che possono ridefinire gli equilibri planetari del potere. A differenza della corsa agli armamenti nucleari del XX secolo, dove le capacità erano quantificabili e tracciabili, il potenziale della QAI risulta sfuggente e difficilmente misurabile, introducendo nuovi elementi di incertezza nelle dinamiche internazionali[6].

La dimensione strategica del “fatto tecnologico viene affrontata nel saggio di Achille Pierre Paliotta e Dario Alessandro Maria Sgobbi[7]. Il contributo analizza un aspetto determinante: il possesso e la tutela delle tecnologie, al fine di comprendere le trasformazioni in corso. La differenza tra l’approccio anglosassone (orientato agli aspetti tecnici e funzionali) e quello europeo (focalizzato sulle dimensioni etiche e normative) evidenzia un divario tecnologico con profonde implicazioni per la sicurezza nazionale. Il caso dei semiconduttori dimostra come la dipendenza tecnologica possa compromettere l’autonomia strategica di un Paese[8].

Sul fronte operativo, Flavio Marangi e Mattia Brambilla Pisoni presentano una ricerca sul ruolo dell’IA nella gestione del rischio cyber[1]. Le proiezioni sull’espansione del mercato globale dell’IA nella cybersecurity anticipano che dai 31,1 miliardi di dollari del 2024 si passerà a oltre 130 miliardi entro il 2030. Si tratta di una trasformazione sistemica del settore. L’analisi condotta dagli autori permette di comprendere come questa tecnologia stia ridefinendo tanto gli strumenti operativi di difesa quanto i processi decisionali e di gestione della sicurezza, evidenziando l’importanza di mantenere un difficile ma indispensabile equilibrio tra automazione e supervisione umana.

Gabriele Minniti ha analizzato in profondità i dati del Rapporto Clusit 2023[2]. I 2.779 incidenti gravi registrati a livello mondiale, con un aumento del 12% rispetto all’anno precedente, e la situazione particolare dell’Italia, con 310 attacchi gravi e una crescita del 65% rispetto al 2022, forniscono un quadro molto realistico della minaccia. L’analisi dell’Adversarial Machine Learning[3], arricchita dagli studi di Stefano Tomasin[4], evidenzia come anche i sistemi di difesa più avanzati possano essere compromessi attraverso manipolazioni sottili dei dati di addestramento.

L’innovazione nella formazione costituisce il fulcro dell’analisi di Mattia Siciliano e Piero Fioretti sulle Virtual Escape Room[5]. La ricerca dell’integrazione tra gamification e IA Generativa delinea un nuovo modello nell’addestramento del personale specializzato, articolato su tre livelli: fattore umano, gestione dei processi e utilizzo delle tecnologie. In particolare, l’impiego del Digital Twin[6] per replicare l’ambiente formativo rappresenta una soluzione che coniuga le esigenze di conoscenza delle nuove generazioni con il rigore necessario per una valutazione approfondita delle competenze realmente necessarie.

Il saggio sulle radiocomunicazioni di Simone Filippi completa il quadro[7], analizzando l’integrazione dell’IA nel contesto della SIGINT[8]. Viene osservato come le nuove tecnologie possano potenziare capacità consolidate, creando collegamenti innovativi nella protezione delle comunicazioni. L’applicazione di algoritmi personalizzati dimostra che l’innovazione nasce spesso dall’integrazione creativa di competenze diverse: come esemplificato dall’adattamento delle tecniche di “caccia alla volpe” dal contesto radioamatoriale all’ambito militare[9].

Futuro della sicurezza nazionale: sfide e opportunità dell’IA

Dall’esame dei contributi emergono linee di sviluppo che possono anticipare l’immediato futuro della sicurezza nazionale e internazionale.

In primo luogo, la trasformazione radicale delle minacce. Non si tratta più di gestire vulnerabilità isolate, ma di governare un sistema dove gli effetti delle azioni si possono diffondere in modo imprevedibile, richiedendo modelli di contrasto molto flessibili.

Anche la questione della sovranità tecnologica è un argomento rilevante, poiché è destinato a determinare la geopolitica globale.

L’Unione Europea è molto indietro in questo settore; e probabilmente sarà destinata a rimanere tale. La rapidità degli sviluppi, sostenuti da ingenti finanziamenti privati che superano i 50 miliardi di dollari, evidenzia come il controllo delle tecnologie di frontiera sia già fondamentale per la sicurezza nazionale, l’autonomia nazionale e il primato della politica in Occidente.

La scelta strategica che l’Italia e l’Europa si trovano ad affrontare – tra il rafforzamento del rapporto bilaterale con gli Stati Uniti o il perseguimento di una “via europea all’Intelligenza Artificiale” – ha conseguenze dirette sulle politiche della difesa.

In tale quadro, assume particolare rilevanza il rapporto uomo-macchina nell’ambito delle politiche per la sicurezza.

La sfida non è tanto tecnologica quanto culturale e organizzativa: sviluppare modelli di integrazione che permettano di utilizzare le capacità dell’IA, mantenendo il controllo dell’uomo sulle decisioni strategiche. È certamente la strada auspicabile, che ci auguriamo sia anche possibile.

La velocità dell’innovazione impone un ripensamento della formazione, che va radicalmente rivista poiché le persone non sono più analogiche ma vivono nello stesso tempo in tre dimensioni sovrapposte e sempre più indistinguibili: fisica, digitale e “ibridata”. Quest’ultima destinata a essere, secondo alcuni, inevitabile[1].

Un segnale di novità è rappresentato dal protocollo d’intesa che è stato recentemente sottoscritto dal Ministro dell’Istruzione e del Merito Giuseppe Valditara con il Direttore Generale dell’Agenzia Nazionale per la Cybersicurezza Bruno Frattasi, sulla diffusione della cultura della sicurezza informatica nelle scuole italiane[2].

Si parte dalla premessa fondamentale di considerare la conoscenza dei rischi digitali come un’inedita opportunità per cogliere le straordinarie opportunità di conoscenza che la Rete consente, se saputa consultare.

Come osserva ottimisticamente il fisico Michio Kaku, “le generazioni odierne sono probabilmente le più importanti che abbiano mai camminato sulla superficie della Terra. A differenza delle generazioni precedenti, abbiamo nelle nostre mani il destino della nostra specie”[3].

Questa responsabilità emerge con particolare forza nel campo della sicurezza, dove le strade che imboccheremo oggi sull’IA avranno ripercussioni profonde sul futuro della nostra civiltà.

Per concludere, i contributi del Quaderno, nel loro insieme, non si limitano a fotografare lo stato dell’arte ma indicano una direzione dove la sicurezza diventa parte di un più ampio progetto di profonda innovazione sociale.

Come suggeriva Benjamin Barber, “la tecnologia può essere utile alla democrazia solo se viene programmata per fare ciò”[1].

Pertanto il dibattito sulla sicurezza e l’IA richiede di essere ampliato, considerando la possibilità di promuovere algoritmi educativi, in grado in grado di potenziare il pensiero critico e la responsabilità[2].

Si tratta di elementi imprescindibili per la sopravvivenza dei sistemi democratici, dovunque sotto assedio in questo inizio del XXI secolo; soprattutto, dal mio punto di vista, a causa dell’inadeguatezza delle classi dirigenti a cogliere le linee del futuro[3].

Fonti

[1]Mario CALIGIURI, professore ordinario all’Università della Calabria, è considerato uno dei massimi studiosi europei di intelligence a livello accademico. Dal 2018 è il Presidente della Società Italiana di Intelligence, che si prefigge di fare diventare l’Intelligence materia di studio nelle università del nostro Paese. Insegna nelle Alte Scuole della Repubblica e ha tenuto corsi, seminari e presentazioni di libri in oltre cinquanta atenei. Ha scritto numerosi saggi sul tema dell’Intelligence ed è autore della voce “Intelligence” nella X Appendice della “Enciclopedia Italiana”, edita dall’Istituto Treccani.

[2] L. ALEXANDER, La guerra delle intelligenze. Intelligenza artificiale «contro» intelligenza umana, EDT, Torino 2018.

[3] N. BOBBIO, Il problema della guerra e le vie della pace, il Mulino, Bologna 1979.

[4] M. CALIGIURI, Geopolitica della mente. L’intelligence nel campo di battaglia definitivo, Mazzanti, Venezia 2023.

[5] U. BECK, La metamorfosi del mondo, Laterza, Roma-Bari 2017.

[6] PARLAMENTO EUROPEO, Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale), https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A32024R1689

[7] Il testo della conferenza tenuta a Madrid nel 1930 si trova in J.M KEYNES, Possibilità economiche per i nostri nipoti, Adelphi, Milano 2009.

[8] D. DE MASI, Che futuro ci attende? https://www.youtube.com/watch?v=wkfehtedmye&t=3077s

[9] M.E. DE SIMONE, F. TIBERTI, W. MOSURO, F. MANOLIO, M. BARRON, E. DIKORU, From chalkboards to chatbots: Transforming learning in Nigeria, one prompt at a time, January 09, 2025, https://blogs.worldbank.org/en/education/From-chalkboards-to-chatbots-Transforming-learning-in-Nigeria

[10] M. CALIGIURI, Pensare con il corpo: dove l’hi tech non potrà mai batterci, “Il Sole 24 Ore”, 4.9.2024, p. 10.

[11] https://www.darpa.mil/about

[12] M. ST. JOHN, D.A. KOBUS, J.G. MORRISON, D.D. SCHMORROW, Overview of the DARPA Augmented Cognition Technical Integration Experiment, https://apps.dtic.mil/sti/tr/pdf/ADA475406.pdf

[13] M. CALIGIURI, Intelligence, in “Enciclopedia Italiana”, X Appendice, Volume I, Roma 2020, pp. 791-795.

[14] A. GAROFALO, L’AI Avversaria e il nuovo fronte della guerra cibernetica: l’arma invisibile del futuro, pag.

[15] Con il termine DeepLocker ci si riferisce al prototipo di malware presentato dai ricercatori di IBM nel 2018, che integra tecniche di IA e deep learning, rappresentando un salto qualitativo nelle minacce informatiche e rendendo gli attacchi altamente mirati e virtualmente impossibili da rilevare con le tecniche di analisi tradizionali.

[16] F. D’AMORE, Gli LLM: lama dalla punta spezzata?, pag.

[17] F. ARRUZZOLI, Quantum AI: il ritorno del dominio tecnologico dell’Occidente, pag.

[18] Per un inquadramento culturale sull’evoluzione quantistica, si veda M. CALIGIURI, L. RUCCO, Quantum intelligence. Le nuove frontiere dell’informazione per Stati, aziende e persone, Rubbettino, Soveria Mannelli 2020.

[19] A.P. PALIOTTA, D.A.M. SGOBBI, IA e sicurezza: cambia davvero qualcosa?, pag.

[20] Per un inquadramento complessivo, A. ARESU, Geopolitica dell’intelligenza artificiale, Feltrinelli, Milano 2024.

[21] F. MARANGI, M. BRAMBILLA PISONI, Il ruolo dell’Intelligenza Artificiale nell’incremento della scalabilità e dell’efficienza operativa nella gestione del rischio cyber, pag.

[22] G. MINNITI, Intelligenza Artificiale e Cybersecurity: sinergia per un futuro sicuro, pag. CLUSIT, Rapporto Clusit sulla Sicurezza Informatica ICT in Italia, Milano 2023, https://clusit.it/wp-content/uploads/download/Rapporto_Clusit_aggiornamento_10-2023_web.pdf

[23] Adversarial Machine Learning è un campo di studi che esamina come manipolare intenzionalmente i sistemi di intelligenza artificiale progettati per causare errori. Comprende tecniche come l’evasione (ingannare modelli esistenti), l’avvelenamento dei dati (corrompere il training) e il furto di modelli (estrarre informazioni proprietarie). Evidenzia vulnerabilità critiche dei sistemi di IA in applicazioni sensibili.

[24] H. FANG, X. WANG, S. TOMASIN, Machine Learning for Intelligent Authentication in 5G and Beyond Wireless Networks, IEEE Wireless Communications, October 2019, pp. 55-61.

[25] M. SICILIANO, P. FIORETTI, Virtual Escape Room: innovazione per Recruitment e Awareness in un mondo digitale, pag.Virtual Escape Room: esperienza digitale interattiva in cui i partecipanti risolvono enigmi e sfide per completare obiettivi in un ambiente virtuale, solitamente con limite di tempo. Utilizzata per intrattenimento e team building.

[26] Digital Twin: replica virtuale di un oggetto o sistema fisico che utilizza dati in tempo reale per simularne il comportamento, consentendo monitoraggio, analisi predittiva e ottimizzazione.

[27] S. FILIPPI, Intelligenza artificiale e radiocomunicazioni, pag.

[28] SIGINT (SIGnals INTelligence): attività di intelligence basata sull’intercettazione e analisi di segnali elettromagnetici, includendo comunicazioni tra persone, tra macchine (ELINT) o ibride. Frequentemente richiede l’impiego di tecniche di crittoanalisi per decifrare comunicazioni criptate.

[29] Caccia alla volpe: tecnica di localizzazione di sorgenti radio evoluta dall’ambito amatoriale a quello militare per identificare trasmettitori nemici in operazioni di guerra elettronica e Intelligence.

[30] D. KELLY, L’inevitabile. Le tendenze tecnologiche che condizioneranno il nostro futuro, il Saggiatore, Milano 2017.

[31] Mim e Acn firmano protocollo per l’Educazione cibernetica, 13.12.2024, https://www.ilsole24ore.it/art/mim-e-acn-firmano-protocollo-l-educazione-cibernetica-AGVVtMkB?refresh_ce=1

[32] M. KAKU, Mondi paralleli. Un viaggio attraverso la creazione, le dimensioni superiori e il futuro del cosmo, Codice, Torino 2019, p. 394

[33] B. BARBER, Passion for democracy, Princeton University Press, Princeton 1998.

[34] M. CALIGIURI, Abbiamo bisogno di algoritmi ad hoc per allenare l’intelligenza,6.1.2025, http://www.wired.it/article/intelligenza-artificiale-algoritmi-educativi-scuola/

[35] M. CALIGIURI, L’insostenibile leggerezza delle Élite democratiche, in “Gnosis”, n. 1, marzo 2017, pp. 164-173.

Bibliografia

ALEXANDER L., La guerra delle intelligenze. Intelligenza artificiale «contro» intelligenza umana, EDT, Torino 2018.

ARESU A., Geopolitica dell’intelligenza artificiale, Feltrinelli, Milano 2024.

BARBER B., Passion for democracy, Princeton University Press, Princeton 1998.

BECK U., La metamorfosi del mondo, Laterza, Roma-Bari 2017.

BOBBIO N., Il problema della guerra e le vie della pace, il Mulino, Bologna 1979.

CALIGIURI M., Geopolitica della mente. L’intelligence nel campo di battaglia definitivo, Mazzanti, Venezia 2023.

CALIGIURI M., Intelligence, in “Enciclopedia Italiana”, X Appendice, Volume I, Roma 2020.

CALIGIURI M., L’insostenibile leggerezza delle Élite democratiche, in “Gnosis”, n. 1, marzo 2017.

CALIGIURI M., Pensare con il corpo: dove l’hi tech non potrà mai batterci, “Il Sole 24 Ore”, 4.9.2024.

CALIGIURI M., RUCCO L., Quantum intelligence. Le nuove frontiere dell’informazione per Stati, aziende e persone, Rubbettino, Soveria Mannelli 2020.

CLUSIT, Rapporto Clusit sulla Sicurezza Informatica ICT in Italia, Milano 2023.

FANG H., WANG X., TOMASINS., Machine Learning for Intelligent Authentication in 5G and Beyond Wireless Networks, IEEE Wireless Communications, October 2019.

KAKU M., Mondi paralleli. Un viaggio attraverso la creazione, le dimensioni superiori e il futuro del cosmo, Codice, Torino 2019, p. 394.

KELLY D., L’inevitabile. Le tendenze tecnologiche che condizioneranno il nostro futuro, il Saggiatore, Milano 2017.

KEYNES J.M., Possibilità economiche per i nostri nipoti, Adelphi, Milano 2009.

PARLAMENTO EUROPEO, Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio, del 13 giugno 2024, che stabilisce regole armonizzate sull’intelligenza artificiale e modifica i regolamenti (CE) n, 300/2008, (UE) n, 167/2013, (UE) n, 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e le direttive 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (regolamento sull’intelligenza artificiale).

Webgrafia

http://www.wired.it

https://apps.dtic.mil

https://blogs.worldbank.org/

https://clusit.it

https://eur-lex.europa.eu

https://www.darpa.mil

https://www.ilsole24ore.it

https://www.youtube.com

Profilo Autore

Mario CALIGIURI, professore ordinario all'Università della Calabria, è considerato uno dei massimi studiosi europei di intelligence a livello accademico. Dal 2018 è il Presidente della Società Italiana di Intelligence, che si prefigge di fare diventare l'Intelligence materia di studio nelle università del nostro Paese. Insegna nelle Alte Scuole della Repubblica e ha tenuto corsi, seminari e presentazioni di libri in oltre cinquanta atenei. Ha scritto numerosi saggi sul tema dell'Intelligence ed è autore della voce “Intelligence” nella X Appendice della “Enciclopedia Italiana”, edita dall'Istituto Treccani e nel 2016 del primo volume sulla Cyberintelligence nel nostro Paese edito da Donzelli.

Condividi sui Social Network:

Ultimi Articoli