Rischi e “instabilità” tecnologici nell’edizione 2019 del Global Risks Report del World Economic Forum. Parte 2

Gli esperti del WEF si sono concentrati su una serie di effetti che potrebbero innescare rischi a cascata. Tra gli argomenti quest’anno spiccano crittografia quantistica, biometria, affective computing, sfide globali emergenti che incideranno sempre più sulla qualità della vita e sull’equilibrio stesso delle persone.

 

Dopo aver esaminato alcuni dei principali rischi informati individuati dal WEF, continuiamo l’analisi in questo articolo.

I potenziali effetti psicologici della crescente intermediazione digitale delle vite delle persone appaiono rilevanti. In uno studio recente, l’avanzamento tecnologico è stato citato come una delle principali cause di solitudine e isolamento sociale dal 58% degli intervistati negli Stati Uniti e dal 50% nel Regno Unito. Tuttavia, lo stesso sondaggio ha rilevato che i social media sono percepiti in ottica positiva per rendere più facile per le persone “connettersi con gli altri in un modo significativo” e gli intervistati che hanno riferito di sentirsi soli non erano più propensi degli altri ad usare i social media.

L’attuale ondata di cambiamento – la c.d. quarta rivoluzione industriale – è definita dalla crescente sfumatura della linea di confine tra l’umano e il tecnologico.

Ampio dibattito, ad esempio, circonda la pretesa dipendenza che le tecnologie digitali possono indurre. Una ricerca nel Regno Unito ha scoperto che a metà del 2018 le persone trascorrono online una media di 24 ore settimanali, più del doppio che nel 2011. Qualche endocrinologo di primo piano ha paragonato le tecnologie digitali a sostanze che creano dipendenza, in quanto stimolano la dopamina, ma richiedono una quantità crescente per ottenere lo stesso effetto. Molti modelli di business si basano sull’efficienza con la quale le nuove tecnologie possono attrarre e mantenere l’attenzione degli utenti; tuttavia, altri sostengono che affermazioni di dipendenza sono allarmiste o esagerate: in fondo, considerano, dalla suddetta ricerca emerge che molte persone passano ancora meno tempo online di quello in cui guardano la televisione.

La relazione tra la tecnologia e l’empatia sembra essersi sfumata: le connessioni online possono essere empatiche, ma la ricerca suggerisce che l’effetto è sei volte più debole che per le interazioni nel mondo reale. Alcuni credono che le tecnologie della realtà virtuale diventeranno un “motore per l’empatia”. Altri notano, per esempio, che il gioco online attuale è correlato negativamente con l’empatia, il che potrebbe suggerire che versioni di VR ancora più coinvolgenti rafforzerebbero l’effetto negativo.

Alcuni suggeriscono che i robot “emotivamente reattivi” potrebbero aiutare ad affrontare la solitudine, in particolare in contesti terapeutici. Ma questo non è senza rischi potenziali.

Il cambiamento tecnologico e sociale legato a rapide trasformazioni nel luogo di lavoro e in cosa succede al lavoro ha il potenziale per influenzare il benessere emotivo e psicologico. Secondo un sondaggio di dipendenti a tempo pieno in 155 paesi, solo il 15% si sente “altamente coinvolto ed entusiasta del proprio lavoro”.

Per molti lavoratori, un notevole cambiamento è stato il venir meno della netta demarcazione che divide il lavoro dal resto della vita. Le e-mail relative al lavoro spesso iniziano molto prima della partenza dell’orario di lavoro nominale e terminano molto dopo. Molte famiglie si dividono tra più lavori destreggiandosi tra seguire i figli, mobilità e pendolarismo stressanti e prendersi cura dei genitori anziani. Sempre più persone citano la capacità di gestire l’equilibrio lavoro/vita come il fattore più importante per avere successo nel lavoro.

L’automazione sempre più spinta ha permesso ad un enorme numero di dipendenti di salire nella catena del valore e abbandonare compiti monotoni e pericolosi, ma già dal lontano 1959 l’organizzazione mondiale della sanità (OMS) ha notato impatti psicologici avversi. Uno dei settori in cui le preoccupazioni per l’automazione e il monitoraggio sono diventate più prominenti è la vendita al dettaglio online, dove il livello di efficienza con cui i magazzini possono ora operare ha moltiplicato i report relativi agli obiettivi di produttività causando stress fisico e psicologico tra i lavoratori.

Mentre il mondo diventa più complesso e interconnesso, i cambiamenti cedono il passo all’instabilità dei circuiti di feedback, degli effetti soglia e delle innnovazioni a cascata.

Machine learning e intelligenza artificiale stanno diventando sempre più sofisticati e prevalenti, con un potenziale crescente di amplificare i rischi esistenti o crearne di nuovi, anche perché l’Internet delle cose collega miliardi di dispositivi.

In un sondaggio condotto lo scorso anno da Brookings, il 32% degli intervistati ha dichiarato di considerare l’IA una minaccia per l’umanità, mentre solo il 24% non lo pensa. L’anno scorso IBM ha rivelato un malware IA mirato che può “nascondere” una ben nota minaccia – WannaCry – in un’applicazione di videoconferenza, attivandola solo quando riconosce il volto dell’obiettivo previsto. È probabile che si verifichino innovazioni simili in altri campi: ad esempio, nella biologia sintetica potenziali criminali potrebbero utilizzare l’intelligenza artificiale per creare nuovi agenti patogeni. E uno dei Future Shocks di quest’anno considera le potenziali conseguenze dell’affective computing, in riferimento all’IA che è in grado di riconoscere, rispondere e manipolare le emozioni umane.

Tra gli impatti più diffusi e dirompenti dell’IA negli ultimi anni c’è stato il suo ruolo nell’ascesa di “camera di risonanza” e fake news, un rischio che il 69% degli intervistati si aspetta che aumenti nel 2019. I ricercatori l’anno scorso hanno studiato le traiettorie di 126.000 tweet e hanno scoperto che quelli che contenevano notizie false hanno costantemente superato quelli contenenti informazioni vere, raggiungendo in media 1.500 persone con una velocità sei volte superiore.

Una delle possibili ragioni citate dai ricercatori è che le notizie false tendono ad evocare potenti emozioni: “i tweet falsi tendevano a suscitare parole associate a sorpresa e disgusto, mentre tweet accurati evocavano parole associate a tristezza e fiducia.” L’interazione tra emozioni e tecnologia è probabilmente destinata a diventare una forza sempre più dirompente.

Quando le enormi risorse destinate alla ricerca quantistica condurranno ai computer quantistici diffusi su larga scala, molti degli strumenti che costituiscono la base dell’attuale crittografia digitale saranno resi obsoleti. Gli algoritmi a chiave pubblica, in particolare, saranno facilmente crackabili.  Quantum promette anche nuove modalità di crittografia, ma entro il tempo in cui nuove protezioni verranno messe in atto, molti segreti potrebbero essere già stati trafugati ai danni banche dati sempre più importanti.

Un collasso della crittografia porterebbe con sé gran parte dell’impalcatura dell’intera vita digitale. Queste tecnologie sono alla base dell’autenticazione online, della fiducia e persino dell’identità personale. Mantengono al sicuro segreti, dalle informazioni personali sensibili ai dati aziendali e statali riservati e mantengono i servizi fondamentali in esecuzione, dalle comunicazioni via e-mail ai settori bancario e commerciale. È evidente che i costi di eventuali interruzioni potrebbero essere enormi.

Con l’avvicinarsi delle prospettive di decrittazione quantistica, una transizione verso nuove alternative, come la crittografia basata su reticoli e funzioni hash, andrà di pari passo. Ma anche i dati storici saranno vulnerabili: se qualcuno ruba i dati crittografati con tecniche convenzionali ora, potrebbe aspettare fino a che i progressi delle tecnologie quantistiche lo aiuteranno ad accedervi, in barba alle precauzioni più forti che fossero state messe in atto successivamente.

La biometria sta facendo progressi esponenziali, tecnologie che fino a poco tempo fa erano nel regno della fantascienza ora danno forma alla realtà delle vite di miliardi di persone. Riconoscimento facciale, analisi del cammino, assistenti digitali, affective computing, impianto di microchip, lettura labiale digitale, sensori d’impronta digitale proliferano, ci muoviamo in un mondo in cui tutto di noi viene catturato, immagazzinato e sottoposto ad algoritmi di intelligenza artificiale.

Questo rende possibile servizi pubblici e privati sempre più individualizzati, ma anche nuove forme di conformità e tecniche di persuasione verso bersagli mirati sempre più precisi. Se gli umani verranno via via sostituiti da macchine in processi decisionali cruciali, il risultato potrebbe portare non solo ad una maggiore efficienza ma anche verso una maggiore rigidità e controllo sociale.

La politica globale sarà influenzata: l’autoritarismo può diventare più facile in un mondo di visibilità e tracciabilità totali, mentre la democrazia può risultare più difficile e alcune società stanno già lottando per bilanciare le minacce alla privacy, fiducia e autonomia contro le promesse di maggiore sicurezza, efficienza e novità. Dal punto di vista geopolitico, il futuro può dipendere in parte da come le società con diversi valori trattano nuovi serbatoi di dati.

Forti sistemi di responsabilità per governi e aziende che usano queste tecnologie potrebbero aiutare ad attenuare i rischi per gli individui derivanti dalla sorveglianza biometrica. Questo magari sarà possibile in alcuni contesti nazionali, ma sviluppare norme globali su scala più ampia in tutti gli ordinamenti sarà una sfida molto impegnativa.

Man mano che l’intreccio della tecnologia con la vita umana diventa sempre più stretto, è probabile che diventi sempre più prevalente l’affective computing, cioè l’uso di algoritmi che possono leggere le emozioni umane o prevedere le nostre risposte emotive.

Col tempo, l’avvento di “woebots” (software progettati per mimare il processo terapeutico in IA) e strumenti simili potrebbe trasformare la prestazione di assistenza emotiva e psicologica in maniera analoga a quanto avvenuto per cardiofrequenzimetri e contapassi.

Ma le conseguenze negative, sia accidentali che intenzionali, di codice emotivamente “intelligente” potrebbero essere profonde. Nuove possibilità di radicalizzazione potrebbero aprirsi, ad esempio, qualora il machine learning venisse utilizzato per identificare sia individui emotivamente ricettivi che i trigger specifici che potrebbero spingerli verso la violenza. Per aiutare a mitigare questi rischi, dovrebbero essere incoraggiate ricerche sugli impatti potenziali sia diretti che indiretti di queste tecnologie.

Potrebbero essere introdotti standard obbligatori, ponendo limiti etici su ricerca e sviluppo.

Gli sviluppatori potrebbero essere obbligati a fornire agli individui diritti di “opt-out”.

E aiuterebbe molto anche una maggiore educazione in merito ai rischi potenziali, sia per le persone che lavorano in questo campo che per la popolazione nel suo complesso.

Infine, nell’ultimo decennio la tecnologia ha modificato radicalmente anche i rischi legati alla protezione delle infrastrutture. I rischi per le infrastrutture critiche che erano stati notati nel 2010 sono aumentati man mano che la digitalizzazione e l’Internet of Things hanno approfondito la connettività in tutto il mondo, aumentando il potenziale per eventuali malintenzionati di montare attacchi online e amplificando i loro potenziali danni. Ad esempio, se un eventuale cyber-attacco al sistema elettrico di un paese avesse successo, ciò potrebbe innescare effetti di ricaduta devastanti. Una stima suggerisce che le aziende di servizi energetici hanno speso ben 1,7 miliardi di dollari nel 2017 per proteggere i loro sistemi dagli attacchi informatici.

In definitiva, per l’uomo si tratta di sfide difficili ma avvincenti. D’altronde, per tutti gli esseri viventi la “competizione” è nell’ordine delle cose, ma di fronte a innovazioni tecnologiche di tale portata credo che non basterà qualche “cambiamento di paradigma”.

L’uomo dovrà dimostrarsi capace ancora una volta di trasformare il progresso in evoluzione, se non vorrà correre il rischio di svegliarsi un giorno e scoprire che “intelligenze artificiali”, magari conoscendo e sfruttando le sue debolezze, si saranno evolute a livelli oggi imprevedibili.

 

Articolo a cura di Sergio Guida

Profilo Autore

Da economista aziendale, ha maturato esperienze direzionali in gruppi industriali diversi per settori, dimensioni e caratteristiche. Specializzato in pianificazione strategica e controllo di gestione, finanza, risk e project management, sistemi di gestione e rendicontazione integrativi (sociale, ambientale e intangible assets), è stato relatore in convegni e seminari e pubblica articoli di economia, finanza, digital transformation, data governance, public health, compliance & regulatory affairs.
Ha seguito percorsi multidisciplinari su Design Thinking, Human-Computer Interaction, Data protection & Privacy, Digital Health & Therapeutics. Business angel, segue con attenzione il mondo delle Startup.

Condividi sui Social Network:

Articoli simili