Come si sconfigge l'odio online?

Come si sconfigge l'odio online?

09.06.2016 | Le “delete squad” di Facebook e Google e la dura la battaglia contro la violenza in rete.

Affrontare con metodo il tema dell’odio online richiede, com’è comprensibile, un’attenzione preliminare all’idea di odio “tradizionale”, dal momento che molti aspetti di base non sono mutati nel corso del tempo.

L’era moderna ha chiaramente delineato tre tipi di odio, che spesso si intersecano tra loro ma che sono, al contempo, abbastanza evidenti nelle loro caratteristiche più peculiari. Ci si riferisce, in particolare, alle espressioni d’odio in senso stretto (odio razziale, politico, religioso e omofobico, in tutte le possibili declinazioni), all’odio cosiddetto “interpersonale” e alla propaganda terroristica.

Il primo “tipo” di odio è quello uscito direttamente dalla Seconda Guerra Mondiale e dalla ricostruzione (anche normativa e politica) post-bellica. La soluzione finale nazista, i fascismi, gli stermini operati da Stati totalitari mostrarono per la prima volta un “livello” d’odio che mai la storia umana aveva affrontato. Di qui vi fu un chiaro interesse, da parte di alcuni Stati europei, di regolamentare le espressioni d’odio. Fu un procedimento molto discusso e, per molti versi, assai tormentato. L’Unione Sovietica, stato totalitario, fu, nelle sedi internazionali, il promotore più convinto – e influente – di una possibilità per i singoli Stati di vietare espressioni d’odio politico, razziale e religioso (l’odio omofobico è un tema che sarà sollevato più a ridosso dei nostri tempi) al fine, si sosteneva, di impedire un ritorno di ciò che aveva causato la guerra e l’Olocausto (propaganda e discriminazione). Gli Stati Uniti d’America, al contempo, vedevano quella possibilità, per gli Stati, di “vietare” la parola, anche se estrema, come un pericolo maggiore di ciò cui avrebbe potuto portare quel parlato odioso. Si opposero fermamente, portando l’esempio della tradizione statunitense e del permesso di ogni tipo di parlato, compreso quello più crudo (a patto che non configuri un clear and present danger, ossia un rischio imminente e concreto di violenza), come esempio di reale libertà. Nel secondo dopoguerra, quindi, si delineano due “mondi” nell’approccio al tema dell’odio (anche in rete). L’approccio europeo, che consente agli Stati di vietare le opinioni e le espressioni d’odio ritenute estreme, e l’approccio statunitense che, invece, è improntato alla massima libertà. Per la dottrina e la giurisprudenza nordamericana, il Governo non deve intervenire in alcun modo nel regolamentare il libero mercato delle idee, altrimenti vi è il rischio che si alteri l’intero ecosistema.

L’esempio che di solito viene portato, a “noi” europei, dagli studiosi statunitensi per farci comprendere un simile approccio è quello che si vede nel film The Blues Brothers e nel passaggio con la manifestazione dei nazisti dell’Illinois: la libertà di manifestare anche in uniforme nazista, e di arringare la folla con un megafono, come diritto costituzionale (tanto che, nel film di John Landis, i nazisti sono protetti da un cordone di polizia che garantisce il loro diritto di manifestare).

Queste brevi premesse storiche servono a far comprendere una situazione molto particolare in cui si trova l’interprete, oggi, che voglia analizzare il problema dell’odio online in Europa: le piattaforme sui cui circolano espressioni d’odio, oggi, sono tutte statunitensi (e nascono, quindi, anche dal punto di vista delle policy sui contenuti, con l’approccio al free marketplace of ideas cui si faceva cenno poco sopra), ma su quelle stesse piattaforme circolano contenuti (anche) europei, di cittadini europei che si aspettano, nella loro tradizione, un certo tipo di tutela e di intervento dello Stato.

Va detto, innanzitutto, che le prime policy redatte dagli esperti di Facebook e Twitter agli inizi della loro attività erano tipicamente statunitensi, nell’approccio: erano ammessi tutti i tipi di espressione a patto che non vi fossero attacchi diretti o non si istigassero concreti e imminenti episodi di violenza nei confronti di individui. Nelle policy più recenti, invece, tutte le piattaforme si sono dimostrate più attente all’approccio europeo e hanno ampliato le ipotesi nelle quali il gestore della piattaforma può intervenire (di sua iniziativa o su sollecitazione/segnalazione da parte degli utenti) per rimuovere determinati contenuti o segnalarli all’autorità.

Il primo passo da fare per ben comprendere la regolamentazione, oggi, delle espressioni d’odio online è l’analizzare con attenzione le policy, di solito riportate in prima pagina dei siti web ufficiali, nelle quali si elencano le condizioni di intervento quando si è in presenza di parlato violento. Si vedrà che in tutte le policy vi è un’attenzione particolare alle categorie che, si diceva, sono incluse nella definizione originale delle espressioni d’odio, ossia istigazione all’odio razziale, religioso, politico, omofobico o, comunque, gravemente discriminatorio.

Il secondo tipo di odio, che non rientra in quelle categorie ben precise che sono state oggetto di regolamentazione nel secondo dopoguerra e che è, invece, correlato ad altri tipi di reati, è il cosiddetto “odio interpersonale”. Si pensi a due (o più soggetti) che iniziano a odiarsi, e a scambiarsi espressioni violente, non per i motivi citati sopra (razzismo, questioni religiose, etnia, politica o omofobia) ma per altri motivi. Il cyberbullismo e il cyberstalking sono gli esempi più diffusi di simili modalità (per veicolare non solo odio).

Il terzo tipo di odio, che in questa sede ci interessa marginalmente, è la propaganda terroristica che, comunque, ha subito anch’essa profonde mutazioni grazie all’avvento e all’uso intenso delle nuove tecnologie.

Il primo e il secondo tipo di odio hanno in comune l’utilizzo delle nuove tecnologie per veicolare odio diretto, per cui è utile comprendere quali siano gli aspetti differenti tra l’odio veicolato online e l’odio veicolato con modalità per così dire “tradizionali”. Di solito sono due gli aspetti di novità correlati all’avvento delle nuove tecnologie: la capacità di amplificazione del danno e la persistenza delle espressioni d’odio.

Amplificazione e persistenza

Per amplificazione dell’odio ci si riferisce alla capacità che hanno alcune tecnologie di aumentare la diffusione, la visibilità, la “potenza” (nei confronti delle vittime) delle espressioni d’odio. Queste capacità non sono, sempre, note. A volte si pensa che un messaggio su Twitter, un post su Facebook (quante volte si sente dire: “la MIA bacheca”) abbiano una valenza limitata e una capacità di diffusione ridotta. In realtà, ci si dovrebbe rendere conto che si è in presenza del più potente mezzo di diffusione del pensiero (di tutti i tipi) oggi esistente, soprattutto se l’argomento diventa trendy, ossia di tendenza, ed entra nella classifica dei topics più discussi in rete. Circa la persistenza, invece, le espressioni d’odio, una volta immesse in rete, continuano a circolare anche dopo mesi o anni e, anzi, possono riapparire nella rete anche dopo un periodo di quiescenza e tornare, così, di attualità. L’odio è, sotto questo aspetto, “per sempre”, e l’oblio, in questo caso, è molto difficile da raggiungere.

Questi due primi aspetti dell’odio online – la capacità della rete di amplificare le azioni umane e la circolazione dei contenuti e il fatto che non sia possibile “tornare indietro” o ritirare la parola – devono essere usati anche e soprattutto come argomenti per l’educazione dei più giovani, in Paesi come l’Italia dove il primo smartphone e il primo tablet (già collegati in rete) sono regalati attorno ai sette anni di età. Un’opera di educazione intesa come suggerimenti sui modi migliori per comportarsi in rete, come contro-parola che dovrebbe servire anche ad abbassare il livello di tolleranza, ormai molto alto. All’odio ci si abitua, e aumenta così il livello di tolleranza nei confronti di determinati tipi di espressioni. Del resto, a vedere ogni giorno trasmissioni televisive che veicolano odio, quelle trasmissioni dopo un po’ diventano la norma. Sono tollerate. E lo stesso succede con le espressioni che circolano in rete.

Il mercato dell’odio

L’aspetto dell’educazione, come primo rimedio per contrastare l’odio online, e della tolleranza ormai diffusa, apre un secondo problema molto grave: la “istituzionalizzazione” (o incorporazione nelle istituzioni) dell’odio. In sintesi, chi dovrebbe, oggi, combattere l’odio (anche online) è di solito, al contrario, in prima linea per la diffusione delle espressioni d’odio, dal momento che si è da tempo compreso che l’odio è un’ottima “valuta” da spendere per attirare consensi o profitto. Il “mercato dell’odio” è, oggi, sotto gli occhi di tutti. Com’è possibile allora, combattere questa situazione se la stampa e la politica sono le prime a veicolare l’odio per fini di consenso o di lucro? Questo punto apre innumerevoli questioni “satellite”: il politico che usa Twitter o Facebook per veicolare odio (dimenticando la posizione di garanzia che ha, e il potere d’influenza nei confronti della gente), o il quotidiano online che lascia “correre” i commenti d’odio in coda agli articoli perché portano click, pagine ricaricate e, quindi, introiti pubblicitari o, infine, il quotidiano di provincia che enfatizza i titoli con riferimenti razzisti per vendere più copie.

Se l’educazione potrebbe far molto (non per niente ci sono progetti dell’Unione Europea che stanno investendo moltissime risorse su questo punto), ma fatica non poco in un ambiente che ormai tollera troppo determinati toni, anche il diritto sta vivendo un periodo abbastanza difficile.

In alcuni Stati europei è in corso un dibattito circa la positività di leggi che vanno a toccare le opinioni delle persone e, soprattutto, degli effetti dannosi che potrebbero avere. Si pensi, in Italia, alle discussioni in corso sul disegno di legge contro l’omofobia e a quelle sul negazionismo. Tutti gli studiosi, anche quelli più contrari alle espressioni d’odio, diventano giustamente molto cauti quando si parla di limitare o vietare le opinioni degli esseri umani. Non solo per il rischio di rappresentare come vittime proprio coloro che seminano odio, nel momento in cui il loro parlato fosse censurato, ma anche perché, già si diceva, in determinati contesti politici le norme che limitano il parlato, anche quello più estremo, possono essere armi a doppio taglio e utilizzate dal potere contro gli oppositori.
Se l’educazione e il diritto poco contano o, comunque, sono un po’ in difficoltà, ci potrà allora salvare la tecnologia? Questo è un aspetto molto interessante, perché riguarda due punti: l’utilizzo di sistemi semantici automatizzati per gestire le espressioni d’odio online e il ruolo dei tecnici (in particolare dei responsabili delle grandi piattaforme tecnologiche) nella rimozione dei contenuti peggiori.
Circa il primo punto, sono ormai numerosi i progetti che, nel mondo, cercano di usare motori di analisi semantica per cercare in qualche modo di individuare, catalogare e isolare le espressioni d’odio all’interno di un dato ambiente, sia esso un grande social network come Facebook o Twitter o una piccola comunità.

Il ruolo della tecnologia.

Sulla carta, lo scopo da raggiungere è semplice: un computer, ben addestrato, tramite un software ben calibrato, che analizzi tutti i flussi di comunicazione che circolano in ogni momento sulla rete e che blocchi le espressioni d’odio. Purtroppo, mettere in pratica un meccanismo simile che sia efficiente, ossia che non censuri gran parte dei messaggi corretti, è difficile, e la difficoltà è data soprattutto dalla complessità del linguaggio umano. Gli ultimi esperimenti in tal senso raggiungono buone percentuali di successo – attorno al 70 per cento – ma non sono comunque pensabili sistemi che censurino il 30 per cento di messaggi leciti. Quando la tecnologia si affinerà, magari mutuando tecniche dell’advertising, dove gli investimenti per l’analisi del linguaggio e la profilazione dei consumatori sono molto maggiori, probabilmente questo aspetto si rivelerà molto interessante. Si conta di più, in questo momento, sulle segnalazioni degli utenti, cercando di utilizzare la comunità anche come “cane da guardia” per reagire in fretta in presenza di episodi critici.

Tecnologia, però, vuol dire anche comprendere il ruolo che deve avere il gestore delle piattaforme in questo panorama. “Comprendere il ruolo” non vuol dire, sia chiaro, incarcerare i vertici delle società al fine di ottenere, in cambio, interventi o accordi con il Governo (spesso collaborazioni più d’immagine e con fini rassicuranti per gli utenti che di sostanza), ma significa pesare bene il comportamento che deve tenere un soggetto commerciale che si muove in un mercato che gli garantisce l’assenza di un obbligo generale di sorveglianza sui contenuti che circolano ma che, al contempo, individua il provider come unico soggetto visibile (e capiente da un punto di vista economico) in un panorama in grande evoluzione. I provider devono diventare degli sceriffi? Occorre individuare delle responsabilità senza far conto, ad esempio, che allestire un sistema di controllo umano sui contenuti richiederebbe risorse insostenibili, che porterebbero probabilmente alla chiusura dei servizi. Eppure le delete squad di Google, Facebook e Twitter sono da anni in prima linea e hanno assunto, in molti casi, poteri ancora maggiori di capi di Stato o tribunali. Lo si è visto quando si doveva decidere se rimuovere da YouTube video che stavano sollevando rivolte in diversi Paesi del mondo.

Posto che tutti sono abbastanza concordi nel ritenere che l’odio online non si possa sconfiggere con una sola soluzione, ma che sia necessario equilibrare diversi aspetti, come possiamo allora conciliare questi tre punti fondamentali: educazione, diritto e tecnologia?

Educazione, dritto e tecnologia

La tecnologia può servire anche a diffondere educazione e contro-parlato: come diffonde odio, così è perfettamente in grado di diffondere amore, pacatezza e a far ragionare. Al contempo, occorrerebbe un aumento di attivismo civico che porti molte persone a contrastare, in maniera ferma ma pacata, tutte quelle espressioni d’odio che si basano su falsità, stereotipi e fotomontaggi o alterazione, anche sottile, della verità. È vero che il dialogare con chi semina odio è sempre molto complesso (chi odia sembra sempre essere molto più motivato di chi cerca di intavolare discorsi ragionati) e spesso la prima reazione è quella di lasciar perdere, ma è anche vero che, in molti casi, il restare fermi contribuisce a questo clima e a questi fatti.

Il diritto, dal canto suo, già punisce molti comportamenti (si pensi alla Legge Mancino in Italia) e il rischio di “troppo diritto” è che si vada a criminalizzare la rete e non i comportamenti. È molto facile in questo contesto, per i Legislatori, aggredire la rete in sé e non focalizzarsi sui comportamenti e sui fenomeni colpendo, invece, le tecnologie (inutilmente, peraltro).
La tecnologia, infine, può aiutare soltanto se sarà, da un lato, realmente compresa nelle sue potenzialità (non solo dalle nuove generazioni, ma anche dal mondo politico) e se potrà agire libera, senza vincoli troppo soffocanti e senza ricatti.

Si tratta di una sfida molto complessa, in corso in questi mesi, ma che può riservare belle sorprese.

*******


L’autore ha recentemente pubblicato per Raffaello Cortina Editore il volume “L’odio online, violenza verbale e ossessioni in rete”
 

l'autore
Giovanni Ziccardi

Giovanni Ziccardi è Professore di Informatica Giuridica presso la Facoltà di Giurisprudenza dell’Università degli Studi di Milano. Giornalista pubblicista e Avvocato, ha fondato e dirige, dal 2000, la Rivista Scientifica Ciberspazio e diritto, Mucchi Editore, Modena. Scrive soprattutto di diritti di libertà e nuove tecnologie, di attivismo, di crimini informatici, di open source e d’investigazioni digitali.