crittografia moderna: dall'evoluzione storica alle architetture contemporanee, dalle implicazioni geopolitiche alle sfide per la sicurezza

Crittografia e sicurezza: la dialettica dell’invisibile

Nel panorama contemporaneo, dove il dato rappresenta la valuta immateriale dell’ecosistema globale, la crittografia emerge come tecnica capace di ridefinire i concetti stessi di privacy, identità e sicurezza. Questo articolo si propone di esplorare le architetture teoriche e le implementazioni pratiche della crittografia moderna, analizzando le complesse interazioni tra innovazione tecnologica e necessità di protezione nell’infosfera, con particolare attenzione alle implicazioni per i decisori strategici e gli specialisti del settore.

Fondamenti della crittografia moderna

La crittografia contemporanea discende da una tradizione millenaria di comunicazione protetta, ma è solo con l’avvento dell’informatica che ha subito una trasformazione paradigmatica. Il passaggio dagli algoritmi simmetrici tradizionali alle architetture asimmetriche ha rappresentato una rivoluzione copernicana nel modo di concepire la sicurezza dell’informazione.

Gli algoritmi a chiave pubblica, teorizzati da Diffie e Hellman nel 1976 e implementati da Rivest, Shamir e Adleman con RSA nel 1978, hanno determinato una scissione concettuale fondamentale: la separazione tra capacità di cifratura e capacità di decifratura. Questa disgiunzione logica ha permesso l’emergere di ecosistemi di comunicazione sicura tra entità che non condividono preventivamente informazioni segrete.

L’evoluzione storica di questo paradigma rivela una progressione dialettica tra innovazione crittografica e capacità di crittoanalisi, in un’eterna contrapposizione tra occultamento e rivelazione che riecheggia, in ambito tecnologico, la tensione filosofica tra aletheia e lethe descritta da Heidegger: la verità come svelamento e al contempo nascondimento.

La matematica come fondamento della fiducia digitale

La robustezza dei moderni sistemi crittografici risiede nella loro dipendenza da problemi matematici considerati intrattabili computazionalmente. La fattorizzazione di numeri primi di grandi dimensioni, il calcolo del logaritmo discreto e l’estrazione di radici discrete su campi finiti rappresentano le fondamenta teoriche su cui si costruisce la fiducia digitale contemporanea.

L’algoritmo RSA, ad esempio, basa la sua sicurezza sull’asimmetria computazionale tra moltiplicazione e fattorizzazione: mentre moltiplicare due numeri primi di grandi dimensioni è operazione eseguibile efficacemente, il processo inverso richiede risorse computazionali che crescono esponenzialmente con la dimensione dei fattori coinvolti.

Analogamente, gli algoritmi basati su curve ellittiche (ECC) sfruttano proprietà geometriche in campi finiti che garantiscono livelli di sicurezza comparabili con chiavi significativamente più corte rispetto a RSA, ottimizzando il rapporto tra sicurezza e performance. La teoria dei corpi finiti e la geometria algebrica, discipline matematiche un tempo considerate di puro interesse teorico, trovano così applicazione pragmatica nella protezione delle infrastrutture critiche e delle comunicazioni sensibili.

L’eleganza formale di queste costruzioni matematiche trascende il mero aspetto utilitaristico, evidenziando come la bellezza intrinseca della matematica pura possa tradursi in architetture di sicurezza dalla robustezza comprovabile attraverso rigorose dimostrazioni formali.

Architetture crittografiche contemporanee e loro implementazioni

Nel contesto attuale, la crittografia si declina in molteplici implementazioni che permeano ogni livello dell’infrastruttura digitale, dalla comunicazione interpersonale alla governance dei sistemi complessi:

Transport Layer Security (TLS)

Il protocollo TLS rappresenta l’implementazione più pervasiva della crittografia nell’ecosistema internet. La sua architettura ibrida combina i vantaggi della crittografia asimmetrica per lo scambio sicuro delle chiavi con l’efficienza degli algoritmi simmetrici per la cifratura del flusso di dati.

Il processo di handshake TLS utilizza certificati digitali ancorati a un’infrastruttura a chiave pubblica (PKI) per autenticare l’identità dei server e stabilire canali di comunicazione protetti. Secondo il Dipartimento della Sicurezza Nazionale degli Stati Uniti, l’implementazione corretta di TLS 1.3 è considerata lo standard minimo di sicurezza per qualsiasi comunicazione su internet.

La complessa orchestrazione di primitive crittografiche all’interno del protocollo TLS esemplifica la necessità di integrare considerazioni teoriche con esigenze pragmatiche di performance e compatibilità. L’evoluzione da SSL a TLS e le successive iterazioni del protocollo riflettono un processo di raffinamento continuo in risposta alle vulnerabilità emergenti, come BEAST, POODLE e Heartbleed, che hanno evidenziato la sottile linea tra robustezza teorica e sicurezza implementativa.

Crittografia end-to-end

La crittografia end-to-end rappresenta una evoluzione filosofica significativa, spostando il perimetro di fiducia dagli intermediari infrastrutturali agli endpoint della comunicazione. Protocolli come Signal implementano ratchet crittografici che garantiscono proprietà avanzate come la perfect forward secrecy e la deniability plausibile, estendendo il concetto di privacy oltre la mera confidenzialità.

Il protocollo Signal, sviluppato da Open Whisper Systems, ha introdotto innovative proprietà crittografiche come il triple Diffie-Hellman (3DH) per l’autenticazione e l’inizializzazione delle sessioni, e il Double Ratchet per la gestione evolutiva delle chiavi di sessione. Questo approccio garantisce che anche in caso di compromissione di una chiave, solo una porzione limitata delle comunicazioni passate o future possa essere decifrata.

La diffusione di questa architettura in applicazioni di messaggistica utilizzate quotidianamente da miliardi di utenti ha democratizzato l’accesso a sofisticate tecniche crittografiche, trasformando un tempo privilegio di élite tecnologiche e militari in commodity universalmente accessibile. Questa democratizzazione solleva interrogativi fondamentali sulle asimmetrie di potere nell’ecosistema digitale e sul diritto fondamentale alla riservatezza delle comunicazioni nell’era della sorveglianza distribuita.

Zero-Knowledge Proofs e privacy computazionale

Le dimostrazioni a conoscenza zero rappresentano una delle frontiere più avanzate della crittografia moderna, permettendo la verifica di proprietà senza rivelare le informazioni sottostanti. Questi costrutti matematici consentono a un soggetto di dimostrare il possesso di una determinata informazione senza rivelare l’informazione stessa, mantenendo un equilibrio ottimale tra verificabilità e privacy.

Le implementazioni pratiche includono zk-SNARKs (Zero-Knowledge Succinct Non-Interactive Argument of Knowledge) e zk-STARKs (Zero-Knowledge Scalable Transparent Arguments of Knowledge), che trovano applicazione in ambiti come blockchain, identità digitale e sistemi di votazione elettronica.

La recente evoluzione verso sistemi fully homomorphic encryption (FHE) consente l’elaborazione di dati cifrati senza necessità di decifrarli, realizzando il paradigma della “privacy computazionale” teorizzato da Rivest negli anni ’70. Questa tecnologia permette l’emergere di modelli di calcolo confidenziale che riconciliano esigenze apparentemente antitetiche: l’analisi dei dati e la preservazione della privacy.

Le implicazioni di queste tecnologie per settori altamente regolamentati come quello sanitario e finanziario sono profonde: la possibilità di condurre analisi su dati sensibili senza esporli direttamente rappresenta un cambio di paradigma nelle politiche di data governance, consentendo collaborazioni precedentemente impossibili tra entità competitive o soggette a stringenti requisiti normativi di confidenzialità.

Secure Multi-party Computation

Il calcolo multi-parte sicuro (MPC) estende ulteriormente il concetto di elaborazione confidenziale, permettendo a molteplici entità di computare congiuntamente una funzione sui propri input privati senza rivelare tali input agli altri partecipanti. Protocolli come il secret sharing di Shamir e tecniche di MPC basate su circuiti garbled consentono la distribuzione della fiducia tra molteplici parti, eliminando la necessità di un singolo custode dell’informazione. Questa architettura distribuita risuona con le esigenze di governance decentralizzata emergenti in diversi contesti socio-tecnologici, dall’aggregazione di dati sensibili tra organizzazioni concorrenti all’implementazione di sistemi di votazione elettronica con proprietà di verificabilità end-to-end.

Quantum Resistant Cryptography: paradigmi e implementazioni

Il paradigma crittografico attuale affronta una sfida esistenziale rappresentata dall’emergere dell’informatica quantistica. L’algoritmo di Shor, teorizzato nel 1994, dimostra la capacità di un computer quantistico sufficientemente potente di fattorizzare numeri interi in tempo polinomiale, minando direttamente le fondamenta matematiche di algoritmi come RSA ed ECC.

In risposta a questa minaccia, il National Institute of Standards and Technology (NIST) ha avviato nel 2016 un processo di standardizzazione di algoritmi crittografici resistenti agli attacchi quantistici. Le principali famiglie di candidati includono:

  • Crittografia basata su reticoli (Lattice-based cryptography): Sfrutta la difficoltà computazionale di problemi come il Learning With Errors (LWE) e il Ring-LWE. Gli algoritmi CRYSTALS-Kyber e NTRU rappresentano implementazioni mature di questo approccio, offrendo garanzie di sicurezza basate sulla difficoltà di trovare vettori brevi in reticoli di alta dimensionalità.
  • Crittografia basata su codici (Code-based cryptography): Algoritmi come Classic McEliece si basano sulla difficoltà di decodificare codici lineari generici. Nonostante l’ampia dimensione delle chiavi pubbliche, questi algoritmi offrono garanzie di sicurezza consolidate da decenni di analisi crittogrfica.
  • Crittografia basata su hash (Hash-based signatures): Sistemi come SPHINCS+ derivano la loro sicurezza dalle proprietà crittografiche delle funzioni di hash, con dimostrazioni formali di sicurezza che richiedono solo la resistenza alle collisioni della funzione di hash sottostante.
  • Crittografia multivariata (Multivariate cryptography): Algoritmi come HFEv- e UOV utilizzano sistemi di equazioni polinomiali multivariante su campi finiti, la cui soluzione rappresenta un problema NP-difficile.

Nel 2022, il NIST ha selezionato gli algoritmi CRYSTALS-Kyber per lo scambio di chiavi e CRYSTALS-Dilithium, FALCON e SPHINCS+ per le firme digitali come primi standard post-quantum. Questi algoritmi rappresentano il futuro della sicurezza crittografica nell’era dell’informatica quantistica. La transizione verso questi nuovi paradigmi crittografici presenta sfide significative di implementazione e interoperabilità. Gli algoritmi post-quantum tipicamente richiedono maggiori risorse computazionali e generano chiavi e firme più voluminose rispetto agli omologhi tradizionali. L’integrazione di questi algoritmi nelle infrastrutture esistenti richiede un approccio graduale di cryptographic agility, permettendo la coesistenza di vecchi e nuovi algoritmi durante la fase di transizione.

Il concetto di “crypto-agility” emerge quindi come requisito fondamentale per le architetture di sicurezza future, che devono essere progettate per adattarsi evolutivamente alle minacce emergenti senza richiedere riprogettazioni radicali dell’infrastruttura sottostante.

Crittografia decentralizzata e trustless systems

L’emergere delle tecnologie blockchain ha catalizzato lo sviluppo di architetture crittografiche orientate alla decentralizzazione e alla minimizzazione della fiducia richiesta. Sistemi di consenso distribuito come Proof-of-Work e Proof-of-Stake, integrati con primitive crittografiche come firme digitali e funzioni di hash, consentono la creazione di registri immutabili e verificabili pubblicamente senza necessità di autorità centralizzate.

Le applicazioni di questa convergenza tecnologica trascendono le criptovalute, estendendosi a sistemi di identità sovrana (Self-Sovereign Identity), registrazione immutabile di evidenze digitali e smart contracts con garanzie di esecuzione deterministica.

Le Decentralized Autonomous Organizations (DAO) rappresentano un’ulteriore evoluzione di questo paradigma, implementando meccanismi di governance algoritmica ancorati a primitive crittografiche. Questi sistemi sollevano interrogativi fondamentali sulla natura dell’autorità e della fiducia nelle strutture socio-tecniche, prefigurando potenzialmente nuove forme di organizzazione istituzionale basate sulla crittografia.

Secure hardware e Trusted Execution Environments

La dicotomia tra sicurezza software e hardware si risolve nell’emergere di architetture integrate che combinano primitive crittografiche con enclavi computazionali protette a livello di silicio. Tecnologie come Intel SGX, ARM TrustZone e AMD SEV implementano Trusted Execution Environments (TEE) che isolano criticamente processi sensibili dal resto del sistema, garantendo proprietà di confidenzialità e integrità anche in presenza di compromissione del sistema operativo host.

Queste tecnologie consentono la materializzazione del concetto di “confidential computing”, permettendo l’elaborazione sicura di dati sensibili anche in ambienti non pienamente fidati, come infrastrutture cloud pubbliche o dispositivi edge in contesti ostili.

L’integrazione di secure elements nei dispositivi mobili contemporanei ha democratizzato l’accesso a storage crittografico hardware, elevando significativamente il livello di sicurezza di applicazioni critiche come autenticazione biometrica, pagamenti contactless e gestione di credenziali.

Crittografia quantistica e distribuzione quantistica delle chiavi

Mentre la crittografia post-quantum rappresenta un approccio difensivo alla minaccia quantistica, la crittografia quantistica sfrutta proattivamente i principi della meccanica quantistica per implementare protocolli di comunicazione con sicurezza garantita dalle leggi della fisica.

La Quantum Key Distribution (QKD), in particolare il protocollo BB84 proposto da Bennett e Brassard, consente la generazione e distribuzione di chiavi crittografiche con la garanzia fondamentale che qualsiasi tentativo di intercettazione sia rilevabile grazie al principio di indeterminazione di Heisenberg. L’intrinseca impossibilità di clonare stati quantistici sconosciuti garantisce che un attaccante non possa intercettare e ritrasmettere i qubit senza introdurre perturbazioni rilevabili.

Le implementazioni commerciali di QKD hanno raggiunto maturità operativa, con reti metropolitane attive in diverse giurisdizioni e progetti di integrazione con infrastrutture di fibra ottica esistenti. I recenti sviluppi nell’ambito della QKD satellitare, pioneristicamente implementata dalla missione cinese Micius, prefigurano la possibilità di reti quantistiche globali.

È fondamentale sottolineare, tuttavia, che la QKD risolve esclusivamente il problema della distribuzione sicura delle chiavi, non sostituendo integralmente l’ecosistema crittografico tradizionale. La sua integrazione ottimale prevede l’utilizzo di chiavi distribuite quantisticamente all’interno di schemi di cifratura simmetrica classici, realizzando un ibrido quantistico-classico che valorizza i punti di forza di entrambi i paradigmi.

Implicazioni geopolitiche della sovranità crittografica

La crittografia, da strumento tecnico, si è elevata a elemento strategico nelle dinamiche geopolitiche contemporanee. Il concetto di “sovranità crittografica” emerge nelle politiche di sicurezza nazionale di diverse potenze, manifestandosi nella standardizzazione di algoritmi proprietari (come i cifrari SM della Cina o GOST della Russia) e nello sviluppo autonomo di infrastrutture cripto-agnostiche.

Le tensioni tra interoperabilità globale e autonomia strategica si manifestano nei dibattiti su standard crittografici internazionali, con diverse nazioni che perseguono strategie di indipendenza tecnologica per ridurre potenziali vulnerabilità derivanti da dipendenze esterne.

Le autorità di certificazione radice rappresentano un ulteriore punto di contatto tra crittografia e geopolitica, con la distribuzione asimmetrica del controllo sulle CA più diffuse che riflette disequilibri di potere nell’ecosistema digitale globale. Iniziative come Certificate Transparency mitigano parzialmente questi squilibri, introducendo meccanismi di accountability distribuita nelle infrastrutture a chiave pubblica.

Il controllo dell’esportazione di tecnologie crittografiche rimane strumento di influenza geopolitica, con regolamentazioni come il Wassenaar Arrangement che tentano di bilanciare la diffusione di capacità di sicurezza legittime con il contenimento di potenziali applicazioni dual-use.

Implicazioni etiche e sociopolitiche della crittografia ubiqua

La pervasività della crittografia nei sistemi socio-tecnici contemporanei trascende la dimensione puramente tecnica, acquisendo valenze etiche e politiche fondamentali. Il dibattito tra diritto alla privacy e necessità di sorveglianza per la sicurezza nazionale rappresenta una tensione dialettica irrisolta nelle democrazie contemporanee.

Organizzazioni come l’Electronic Frontier Foundation sostengono che l’accesso generalizzato a strumenti crittografici robusti rappresenti un diritto fondamentale nell’era digitale, essenziale per garantire libertà di espressione e comunicazione privata. Questa posizione si radica nell’interpretazione della crittografia come estensione tecnologica di diritti civili fondamentali, particolarmente critici per dissidenti politici, whistleblower e minoranze vulnerabili.

D’altro canto, agenzie governative come l’FBI hanno ripetutamente sollevato preoccupazioni riguardo all’utilizzo di crittografia end-to-end impenetrabile in indagini su crimini gravi, proponendo l’implementazione di backdoor o meccanismi di key escrow. Questi approcci, tuttavia, sono stati unanimemente criticati dalla comunità crittografica per l’inevitabile introduzione di vulnerabilità sistemiche che comprometterebbero la sicurezza dell’intero ecosistema digitale.

La dicotomia tra questi approcci riflette tensioni più profonde tra modelli di governance tecnocentrici e antropocentrici, tra prioritizzazione della sicurezza collettiva e preservazione di spazi di autonomia individuale nell’ecosistema digitale. La ricerca di equilibri sostenibili in questo spazio richiede un dialogo interdisciplinare che integri considerazioni tecniche, giuridiche ed etiche in un framework coerente.

Crittografia e regolamentazione: convergenze e divergenze

Il rapporto tra innovazione crittografica e regolamentazione presenta complessità significative, con framework normativi che tentano di bilanciare imperativi potenzialmente contrastanti: sicurezza nazionale, privacy individuale, innovazione tecnologica e interoperabilità globale.

Il Regolamento eIDAS 2.0 dell’Unione Europea rappresenta un tentativo ambizioso di standardizzare aspetti critici dell’ecosistema crittografico, dalla firma elettronica qualificata all’identità digitale auto-sovrana, creando un framework armonizzato per servizi fiduciari digitali. Parallelamente, il Digital Operational Resilience Act (DORA) impone requisiti specifici di resilienza crittografica per il settore finanziario, richiedendo crypto-agility e piani di transizione verso algoritmi quantum-resistant.

Negli Stati Uniti, l’Executive Order 14028 sulla Cybersecurity ha accelerato l’adozione di standard crittografici post-quantum nell’infrastruttura federale, mentre in Asia l’approccio cinese alla standardizzazione crittografica riflette priorità di sicurezza nazionale e sovranità digitale.

La diversificazione di approcci regolamentari tra giurisdizioni rischia di creare un mosaico frammentato di requisiti potenzialmente incompatibili, con implicazioni significative per entità operanti in contesti multinazionali. L’emergere di forum multi-stakeholder per l’armonizzazione di standard crittografici rappresenta un tentativo di mitigare queste divergenze, promuovendo interoperabilità senza compromettere requisiti di sicurezza fondamentali.

Biometria e crittografia: opportunità e rischi dell’identificazione organica

La convergenza tra biometria e crittografia offre meccanismi di autenticazione che combinano l’immediatezza del riconoscimento biologico con la robustezza matematica delle primitive crittografiche. Tecnologie come Match-on-Chip implementano verificazione biometrica sicura all’interno di secure elements, impedendo l’esfiltrazione di template biometrici e mitigando vulnerabilità intrinseche dell’autenticazione biometrica tradizionale.

Approcci innovativi come i Fuzzy Extractors consentono la derivazione deterministica di chiavi crittografiche da caratteristiche biometriche intrinsecamente rumorose, implementando un paradigma “something you are” che elimina la necessità di memorizzare segreti. Parallelamente, tecniche di biometria cancellabile introducono proprietà di revocabilità in sistemi biometrici, consentendo la rigenerazione di template compromessi.

Queste innovazioni bilanciano opportunità significative – eliminazione di dipendenza da password, resistenza a phishing, user experience fluida – con rischi intrinseci legati all’immutabilità delle caratteristiche biometriche e alle implicazioni privacy della raccolta centralizzata di identificatori biologici univoci.

Machine Learning e crittografia: sinergie e antagonismi

L’intersezione tra crittografia e machine learning genera dinamiche complesse, con pattern di interazione sia sinergici che antagonistici. Sul fronte sinergico, tecniche di federated learning consentono l’addestramento collaborativo di modelli su dataset distribuiti senza centralizzazione dei dati grezzi, mentre approcci di privacy-preserving machine learning integrano tecniche come differential privacy e secure multi-party computation per garantire proprietà formali di confidenzialità.

Sul fronte antagonistico, tecniche avanzate di machine learning rappresentano una minaccia emergente per primitive crittografiche, con modelli di deep learning che dimostrano capacità crescenti di crittoanalisi differenziale e side-channel. Parallelamente, la crittografia omomorfica e le dimostrazioni a conoscenza zero offrono meccanismi di protezione contro attacchi di model extraction e data poisoning, emergenti nell’ecosistema ML-as-a-Service.

Questa dialettica tra tecnologie emergenti richiede un approccio olistico alla sicurezza che integri considerazioni crittografiche nel ciclo di vita completo dei sistemi basati su machine learning, dalla protezione dei dati di addestramento alla salvaguardia dei modelli inferiori.

Conclusioni: verso un paradigma di sicurezza integrato

La crittografia moderna rappresenta un elemento necessario ma non sufficiente per garantire la sicurezza dell’ecosistema digitale. Un approccio olistico richiede l’integrazione di molteplici dimensioni:

  • Robustezza algoritmica e implementativa
  • Ingegneria sociale e consapevolezza degli utenti
  • Governance e regolamentazione bilanciata
  • Prospettiva evolutiva in risposta alle minacce emergenti
  • Interazione sinergica con paradigmi complementari di sicurezza

Nel contesto di crescente digitalizzazione e complessificazione sistemica, la crittografia trascende la dimensione puramente tecnica per divenire paradigma fondazionale che definisce i parametri di interazione nell’infosfera contemporanea. La sua evoluzione riflette una progressione dialettica costante tra occultamento e rivelazione, tra autonomia e controllo, tra individualità e collettività.

Per i decisori strategici e i tecnici specializzati, la sfida consiste nel progettare e implementare architetture crittografiche che bilancino requisiti apparentemente antitetici: usabilità e sicurezza, apertura e protezione, standardizzazione e innovazione. La realizzazione di questo equilibrio richiede una comprensione profonda non solo degli aspetti matematici e implementativi della crittografia, ma anche delle sue implicazioni etiche, sociali e geopolitiche.

In ultima analisi, la crittografia rappresenta non meramente una tecnologia di protezione, ma un linguaggio attraverso cui articolare e negoziare i confini tra visibile e invisibile nell’ecosistema digitale contemporaneo, contribuendo a definire l’ontologia stessa dell’informazione nell’era post-industriale.

Bibliografia

  1. Department of Homeland Security. (2024). “Guidelines for Securing Digital Communications”. https://www.cisa.gov/topics/cybersecurity-best-practices
  2. Marlinspike, M., & Perrin, T. (2023). “The X3DH Key Agreement Protocol”. Signal Foundation. https://signal.org/docs/specifications/x3dh/
  3. Goldwasser, S., Micali, S., & Rackoff, C. (1989). “The Knowledge Complexity of Interactive Proof Systems”. SIAM Journal on Computing, 18(1), 186-208. https://doi.org/10.1137/0218012
  4. National Institute of Standards and Technology. (2022). “Post-Quantum Cryptography Standardization”. https://csrc.nist.gov/Projects/post-quantum-cryptography
  5. Electronic Frontier Foundation. (2024). “Defending Encryption in a Digital Age”. https://www.eff.org/deeplinks/2024/01/defending-encryption
  6. Bernstein, D. J., & Lange, T. (2024). “Post-quantum cryptography—dealing with the fallout of physics success”. Nature, 549(7671), 188-194. https://www.nature.com/articles/nature23461
  7. European Union Agency for Cybersecurity. (2023). “Quantum-Safe Cryptography: Preparing for the Post-Quantum Era”. https://www.enisa.europa.eu/publications/quantum-safe-cryptography-preparing-for-the-post-quantum-era
  8. Boneh, D., & Shoup, V. (2023). “A Graduate Course in Applied Cryptography”. https://toc.cryptobook.us/
  9. Gentry, C., & Halevi, S. (2022). “Fully Homomorphic Encryption: Introduction and Applications”. Communications of the ACM, 65(3), 96-105. https://dl.acm.org/doi/10.1145/3453483.3456731
  10. World Economic Forum. (2023). “Quantum Security in the Age of Quantum Computing”. https://www.weforum.org/reports/quantum-security-in-the-age-of-quantum-computing/
Condividi sui Social Network:

Ultimi Articoli