L’hate speech non è libertà di espressione

Come stabilire il limite tra hate speech e libertà di espressione? Ma soprattutto, qual è il senso e il tipo di limite che si può porre realisticamente? La difficoltà intorno a queste domande fa intendere che questo argomento rappresenti un vero e proprio dilemma. Infatti, il dilagare di contenuti di odio online e fake news senza alcun tipo di limitazione minaccia i nostri valori democratici. Tuttavia, l’altra faccia della medaglia è che affidare al web stesso il ruolo di regolatore, soppiantando l’autorità pubblica, potrebbe comportare rischi ancora più elevati connessi alla libertà di informazione e di espressione.

Tutelare le vittime di hate speech

In questo tiro alla fune diviso tra libertà di espressione online da un lato e tutela delle vittime dell’hate speech dall’altro, è necessario trovare un punto intermedio, un confine. Tuttavia, come ci insegna la giurisprudenza, a qualsiasi regola corrisponde un’autorità in grado di farla rispettare. In questo momento storico, la necessità di trovare un punto d’equilibrio è più che mai urgente. Ciò che risulta poco chiaro è chi debba vigilare su di esso.

L’autorità pubblica è preposta a vigilare sul rispetto e sull’attuazione di tutti i diritti riconosciuti. Tuttavia, sempre più spesso, vediamo come l’autorità privata dei singoli social si sostituisca a quella pubblica. Questa tendenza, nonostante abbia ridotto il grado di violenza che caratterizza sempre più la rete, ha portato a discussioni sul rischio che comporterebbe una regolazione esclusiva condotta dalle medesime piattaforme social. Infatti, è necessario che la protezione di diritti fondamentali come dignità e libertà di espressione sia sempre affidata all’autorità pubblica.

Le regole interne dei social

L’hate speech è un tema al centro dei dibattiti attuali e, come spiegato, porta con sé non poche controversie rispetto alla libertà di espressione su internet. A oggi non esistono confini definiti dalla legge. Tuttavia, alcune piattaforme social hanno creato dei propri regolamenti con l’obiettivo di contenere il linguaggio offensivo e discriminatorio utilizzato da alcuni utenti. Per esempio, YouTube vieta esplicitamente l’hate speech; mentre Facebook, in maniera meno radicale, lo vieta in generale, aggiungendo che sono però ammessi messaggi con espliciti fini umoristici o satirici. Invece, Twitter resulta il più permissivo, in quanto non vieta esplicitamente l’hate speech, ma chiarisce solo alcuni termini relativi agli annunci pubblicitari.

Nessun social network ha l’obbligo di monitorare e regolare tutti i contenuti postati sulle loro piattaforme; questo nonostante l’Unione Europea stia spingendo sempre di più per la promozione di un loro sistema di sorveglianza.

Le misure europee

Nella sentenza del 3 ottobre 2019, i giudici di Lussemburgo hanno stabilito che i singoli paesi possono costringere Facebook a eliminare i contenuti considerati hate speech sia all’intero dell’UE, che in tutto il mondo. Nello specifico, la sentenza riguarda la causa promossa da un’esponente austriaca del partito dei Verdi; parliamo di Eva Piesczek contro Facebook, quando la donna richiese la rimozione a livello globale di una serie di diffamazioni contro di lei. La corte austriaca si è rivolta alla Corte di Giustizia Europea, che ha definito la competenza dei tribunali nazioni di richiedere a Facebook di tracciare ed eliminare post identici e equivalenti di hate speech.

Quello a cui ha portato questa sentenza è una nuova responsabilità di Facebook: da essere un semplice prestatore di servizi di hosting per i quali non poteva essere responsabile, anche se cosciente della loro illiceità, ora potrebbe essere potenzialmente costretto a porre fine a una violazione.

Le convenzioni internazionali e regionali

La Convenzione delle Nazione Unite per la prevenzione e la repressione del delitto di genocidio (9 dicembre 1948) impone agli Stati di punire l’incitamento diretto e pubblico a commettere un genocidio. Invece, secondo la Convenzione sull’eliminazione di ogni forma di discriminazione razziale (21 dicembre 1965), gli stati devono condannare ogni organizzazione che si ispiri a teorie basate sulla superiorità di una razza e che incoraggi forme di odio e di discriminazione razziale. A questi si somma il Patto sui diritti civili e politici (16 dicembre 1966) che prevede possibili restrizioni alla libertà di espressione a condizione che queste siano stabilite dalla legge. Inoltre, si richiede agli Stati di vietare nell’ordinamento interno ogni propaganda a favore della guerra e qualsiasi appello all’odio nazionale, razziale o religioso.

Per quanto riguarda il quadro del Diritto internazionale regionale, la Convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali vieta qualsiasi tipo di discriminazione. Inoltre, la Carta dei diritti fondamentali dell’Unione europea (7 dicembre 2000) ribadisce questo concetto, pur non menzionando espressamente l’hate speech come limite alla libertà di espressione.

Un confine ancora da delimitare

Dopo aver dato uno sguardo più approfondito alle regolamentazioni si può evincere che, purtroppo, il confine è ancora blandamente definito. Infatti, il vero ostacolo è rappresentato dalle stesse leggi a livello nazionale, regionale e internazionale, che sono in ritardo rispetto alle necessità dei tempi. A oggi, è più che mai importante che le normative vengano aggiornate per riaffermare la predominanza dell’autorità pubblica sulle decisioni delle singole piattaforme social. Al contrario, si incapperebbe nel rischio troppo esteso di una limitazione eccessiva dei diritti riconosciuti internazionalmente degli individui, come quello di informazione ed espressione. Pertanto, seppur controversa, quella dell’aggiornamento delle normative è una questione che va affrontata al più presto.

 

A cura di

Silvia Crespi


FONTI:

CREDITS: