L’odio online – Violenza verbale e ossessioni in rete

Affrontare il tema dell’odio (in generale) in un’ottica informatica pone problemi nuovi, e fa riemergere, al contempo, questioni lontane nel tempo.

Le questioni lontane nel tempo si collocano, abbastanza agevolmente, poco prima, durante e dopo la Seconda Guerra Mondiale. I totalitarismi, la propaganda d’odio volta a de-umanizzare minoranze e intere comunità razziali, i campi di sterminio e la Soluzione Finale dei nazisti mirante a far scomparire gli ebrei dalla terra raggiunsero vette d’odio con una volontà, una sistematicità e una diffusione che mai l’umanità aveva sperimentato prima. L’odio non si fermò, però, nei tempi moderni: si pensi agli episodi di genocidio in ex-Jugoslavia, in Africa e in molti altri Paesi.

L’esperienza dell’odio post-bellico spinse gli studiosi a creare le categorie dell’hate speech e degli hate crimes. In senso molto restrittivo, da allora s’intese l’hate speech (“espressioni d’odio”) come qualsiasi attività verbale di istigazione alla violenza che toccasse gli ambiti politico, religioso e razziale. Nei tempi recenti, gli interpreti si ritrovarono concordi nell’includere all’interno di detta categoria anche le espressioni omofobiche e le discriminazioni basate sulla sessualità. Con l’avvento di Internet questa categoria originaria di hate speech rimase e si diffuse su larga scala.

Sin dagli anni Ottanta apparvero, negli Stati Uniti d’America, i primi siti web e forum dedicati alla propaganda razziale, alla supremazia bianca, alla denigrazione di minoranze. Da allora, una prima “categoria di odio”, sia online sia offline, ritenuta la più pericolosa per il benessere sociale e la dignità del cittadino, è individuabile in ogni espressione che discrimini, istighi alla violenza, de-umanizzi una minoranza su basi politiche, razziali o religiose.

Il primo problema sorse quando ci si rese conto che Europa e Stati Uniti d’America avevano un approccio completamente diverso al tema dell’hate speech, soprattutto in vista di una sua regolamentazione normativa. L’Europa, che aveva vissuto direttamente la guerra, i totalitarismi e l’Olocausto, ritenne naturale il permettere ai singoli Stati di proibire per legge tali espressioni d’odio e l’esistenza di una sorta di dovere, in capo allo Stato, di cercare di migliorare la vita in comune dei cittadini rimuovendo tutti quegli episodi in grado di turbare la quiete sociale. Uno Stato poteva, quindi, emanare leggi che vietassero tali espressioni e opinioni. In molti prospettarono i grandi rischi insiti in leggi di tale tipo e, comunque, in ogni normativa che cerchi di disciplinare l’opinione. Non solo rischi di censura, ma anche la possibilità di usare tali leggi da parte di stati totalitari per soffocare il contradditorio, le opposizioni e per sciogliere minoranze politiche.

Gli Stati Uniti d’America, al contempo, si muovevano in senso opposto: anche l’hate speech doveva essere libero. Il Governo non poteva intervenire in alcun modo sulla mente e sulle espressioni dei cittadini, le idee dovevano scorrere libere in un grande mercato, e se lo Stato fosse intervenuto come “guardiano della mente” delle persone avrebbe alterato tutti gli equilibri sociali e avrebbe portato disordine e ingiustizie. La concezione che le idee migliori, anche in una società dove circolano espressioni d’odio, trovino la forza di emergere, e di farsi “sentire” più delle altre, è il tipico approccio libertario statunitense.

L’esempio più noto di questo approccio è un passaggio, nel film “The Blues Brothers”, dove viene raffigurato un corteo neonazista (“i nazisti dell’Illinois”) libero di manifestare in una cittadina, richiamando il celebre caso Skokie. Vi sono, sia chiaro, anche posizioni intermedie. Waldron, ad esempio, pur avendo un approccio nordamericano, guarda con attenzione alla disciplina europea, soprattutto elogiando l’attenzione che, in questo modo, viene data alla vittima e alle sue esigenze. Si proteggono la dignità civica e il diritto di ogni cittadino a crescere in una società che non lo metta a disagio o non lo discrimini.

Per quale motivo questa distinzione storica, che abbiamo dovuto riassumere in poche righe ma che ha sollevato problemi enormi nel corso degli ultimi settant’anni, è diventata attuale anche nell’era tecnologica? Semplice: perché tutte le piattaforme che oggi veicolano anche espressioni d’odio – social network, comunità, piattaforme varie – sono statunitensi e sono nate, quindi, con alla base quell’idea di libertà.

Le prime policy sui contenuti estremi o controversi di Twitter e Facebook, alle origini, erano proprio basate su quell’approccio: intervenire soltanto, come ha più volte stabilito la Corte Suprema USA, quando vi sia un attacco diretto unito a un “clear and present danger”, un pericolo concreto che la parola d’odio porti episodi di violenza. Altrimenti, tutto è ammesso.

Ora, se si pensa che è vero che le piattaforme sono statunitensi, ma che oggi anche tutti gli Europei si collegano e condividono espressioni e pensiero con quei sistemi, appare chiaro un nuovo conflitto: come si possono armonizzare due principi così distanti in un quadro tecnologico così uniforme? Di qui la volontà, più o meno convinta, di molti operatori in Europa di adoperarsi per limitare la circolazione delle espressioni d’odio o di cercare soluzioni, anche tecnologiche, per cercare di mappare, limitare, analizzare da un punto di vista semantico o bloccare la circolazione di parlato estremo.

Se il primo tipo di odio, l’hate speech in senso stretto, ha una collocazione (anche politica e contenutistica) ben definita, vi è un secondo tipo di odio, che si potrebbe definire “comune” o “interpersonale”, che riguarda invece l’aggressione portata da un individuo nei confronti di un altro. Anche questo fenomeno ha visto, negli ultimi anni, una grande crescita. Spesso legato ad accadimenti politici o di cronaca (una crisi politica correlata al flusso di migranti, l’elezione di una Miss con dichiarazioni folcloristiche, etc.), si concretizza oggi nei fenomeno del cyberbullismo, del cyberstalking, del revenge porn e, in generale, delle estorsioni, del grooming online (adescamento di minori a fini sessuali) e dell’istigazione al suicidio.

Rispetto all’hate speech in senso stretto che abbiamo visto poco sopra, questo “tipo” di odio può essere generato, si diceva, anche da accadimenti banali o comuni e può prendere le mosse egualmente da discussioni su temi leggeri e di nessun interesse politico o sociale. Il carico d’odio veicolato, però, è altrettanto nocivo e violento nei confronti della vittima. Uno dei problemi principali di tale tipo di odio, e di simili modalità di aggressione, è l’altissima presenza di “sommerso”, ossia di aggressioni che, per vergogna, sfiducia nei confronti dell’autorità o timore di ritorsioni, non sono denunciate.

Le nuove tecnologie hanno radicalmente cambiato le modalità di circolazione dell’odio interpersonale.

L’effetto disinibitorio che lo schermo del telefono porta con sé conduce molte persone a mantenere toni più aggressivi e a percepire molte azioni come “virtuali” quando hanno, in realtà, conseguenze devastanti sulla vita reale, e la salute, delle persone.

Il bullismo e lo stalking, in particolare, hanno visto, con l’avvento dei social, di Internet e delle chat, un mutamento radicale nelle modalità di aggressione. Si pensi agli attacchi “social” (più persone, a volte anche centinaia, si coalizzano contro un soggetto o un profilo e sferrano un attacco unendo le forze senza neppure conoscersi tra loro ma semplicemente condividendo le azioni d’odio), all’amplificazione delle azioni che vengono portate (soprattutto se diventano “di tendenza”, ossia se generano commenti, discussione e visibilità), alla continuità e ossessività degli attacchi (prima il bullismo terminava, nella maggior parte dei casi, quando il bambino usciva dalla classe, mentre ora si è online 24 ore su 24) e alla persistenza delle espressioni d’odio online (tanto che, tecnicamente, un vero diritto all’oblio è oggi assai complesso, se non impossibile, da raggiungere.

Un terzo tipo di odio, strettamente correlato all’hate speech in senso stretto (soprattutto in un’ottica politica e religiosa) ma che, negli ultimi anni, ha assunto una sorta di “indipendenza”, è quello correlato alla propaganda terroristica.

Il terrorismo fa della propaganda, nell’era di Internet, il metodo principale per diffondere notizie, per cercare complici da radicalizzare e reclutare, per diffondere video dal sapore hollywoodiano che illustrano le “imprese” delle cellule e che cercano sia di suggestionare potenziali adepti sia di dileggiare gli avversari politici.

L’uso intenso di Twitter e di Facebook (ma, ultimamente, anche di altri canali), la lotta in corso con Anonymous e altri gruppi hacker, la difficoltà di chiudere definitivamente siti o profili chiaramente inneggianti al terrorismo (che riappaiono in rete dopo pochi minuti) , la possibilità di svolgere indagini proprio sui dati che circolano in rete e una nuova forma di “terrorismo connesso” online senza un “centro” ma composto di cellule spesso indipendenti tra loro (ma costantemente in contatto) hanno disegnato problemi nuovi, anche politici, che non sono semplici da risolvere.

Come si può operare, in questo quadro di odio, intervenendo senza ledere altri diritti (soprattutto il diritto alla manifestazione del pensiero, il diritto alla privacy e il diritto alla libertà d’impresa), senza costringere i grandi player tecnologici a doversi prendere carico dell’attività di “sceriffo” su tutti i contenuti che circolano (fatto insostenibile non solo logicamente ma anche economicamente) e conciliando tutti i problemi di interpretazione cui si è fatto cenno? Una soluzione interessante, non semplice da perseguire, sarebbe quella di dosare con cura e conciliare tre aspetti tutti fondamentali.

L’educazione e la formazione innanzitutto (istruendo le nuove generazioni circa l’odio, abbassando la tolleranza nei confronti di determinate espressioni, stimolando l’uso della “controparola”, ossia il dialogo pacato pensato per contrastare espressioni violente o per smascherare bufale o notizie imprecise), il diritto (da usare con cautela sia per non criminalizzare ex se la rete sia per non soffocare le opinioni delle persone, pur crude che siano), la tecnologia (adottando ad esempio algoritmi semantici capaci di individuare e trattare espressioni d’odio).

Un giusto coordinamento di queste tre azioni può contribuire, sul breve e sul lungo periodo, a contenere un fenomeno che, tutti notano, è oggi in sensibile espansione.

A cura di: Giovanni Ziccardi, Università degli Studi di Milano

Profilo Autore

Giovanni Ziccardi (Castelfranco Emilia, Modena, Italia, 1969) è Professore Associato di Informatica Giuridica presso la Facoltà di Giurisprudenza dell’Università degli Studi di Milano. Tiene anche docenze all’Università degli Studi di Bologna (Master in Informatica giuridica e diritto delle nuove tecnologie, modulo sulla criminalità informatica).
Giornalista pubblicista e Avvocato, si è laureato in Giurisprudenza presso l’Università degli Studi di Modena, ha ottenuto il titolo di Dottore di Ricerca in Informatica Giuridica e Diritto dell’Informatica presso l’Università degli Studi di Bologna ed è stato Assegnista di Ricerca per un anno presso l’Università degli Studi di Modena.

Condividi sui Social Network:

Articoli simili