Odio digitale

Facebook: la battaglia contro l’odio digitale

I social network hanno sicuramente semplificato lo scambio di notizie, informazioni e opinioni tra i propri utenti. La facilità con cui le persone possono interagire e comunicare tra loro rappresenta una delle caratteristiche tipiche di queste piattaforme; esse possono però veicolare qualsiasi tipo di contenuto, positivo o negativo che sia. Questo significa che i social hanno facilitato anche la diffusione di messaggi violenti, per esempio di stampo razzista e sessista.
Facebook, il social network più diffuso al mondo con oltre 2 miliardi di utenti, in questi ultimi anni ha provato a contrastare il dilagare di fake news e contenuti violenti, soprattutto di matrice terroristica, presenti sulla sua piattaforma, introducendo una serie di algoritmi e protocolli appositamente realizzati per evitare la pubblicazione e la diffusione di video, messaggi e immagini di natura controversa.

Facebook e la lotta al terrorismo

L’azienda creata da Mark Zuckerberg in questi ultimi anni si è dimostrata molto attiva nel contrastare la propaganda di matrice terrorista. Il social ha adottato diverse soluzioni per individuare ed eliminare pagine e contenuti vicini a gruppi terroristici, come l’Isis o Al Qaida.

Oggi la maggior parte dei contenuti postati su Facebook viene controllata grazie a dei sistemi di intelligenza artificiale (AI), i quali, come spiega un articolo de «Il Post»:

Servono in primo luogo a riconoscere che cosa è stato pubblicato da una pagina o da un profilo e se possa costituire un pericolo.

Grazie a questi sistemi, se un utente prova a postare un video o una foto contenenti elementi di propaganda terroristica, l’AI provvede a bloccarli preventivamente. Questo è possibile poiché  l’AI è in grado di confrontare i nuovi contenuti caricati su Facebook con quelli già noti e segnalati come materiale di stampo terroristico. Esistono anche dei sistemi in grado di interpretare i testi digitati nei post di Facebook, che vengono utilizzati per individuare e cancellare argomenti in favore dei gruppi terroristici e delle loro azioni. I sistemi di intelligenza artificiale vengono usati da Facebook non solo per controllare il materiale postato dagli utenti, ma anche per chiudere i profili utilizzati da individui riconosciuti come terroristi.

Ovviamente, come afferma l’azienda stessa, l’utilizzo dell’AI non è sufficiente per combattere la propaganda di matrice terrorista, poiché:

A volte gli algoritmi non riescono a interpretare correttamente un’informazione.

L’intervento umano rimane dunque indispensabile per capire quali contenuti rimuovere dalla piattaforma social. Così Facebook ha creato una divisione antiterrorismo composta da 150 esperti, che collaborano con i circa 30 mila moderatori Facebook per individuare i contenuti e i profili legati all’ideologia terroristica.

Violenza sui social: il ruolo dei moderatori Facebook

I moderatori Facebook si occupano di vagliare il contenuto delle segnalazioni fatte dagli utenti della piattaforma, dunque il loro compito è quello di stabilire quando un video, un’immagine o un testo devono essere rimossi dal social network a causa dei loro contenuti inappropriati. Per svolgere questa importante operazione i moderatori devono seguire i criteri e i regolamenti elaborati dal gruppo dirigente di Facebook. Secondo il «The Guardian» esistono più di cento manuali interni destinati all’addestramento dei moderatori, nei quali vengono spiegati i criteri da adottare nei casi di materiale riguardante l’odio razziale, la violenza sulle donne, l’estremismo politico e religioso, ecc.  Le regole presenti in questi manuali però risultano essere complesse e contraddittorie. Per esempio:

  • I video che mostrano morti violente non sempre vengono rimossi da Facebook perché possono aiutare a creare una maggiore consapevolezza su temi come i disturbi mentali;
  • Foto di abusi o atti di bullismo vengono cancellate dalla piattaforma solo se sono presenti elementi sadici o celebrativi;
  • Frasi come: “Qualcuno spari a Trump” vanno rimosse perché il soggetto, ovvero un capo di stato, fa parte di una categoria sensibile; mentre sono permesse frasi come: “Rompi il collo a quella” perché non sono considerate come minacce reali.

Per di più, a causa dell’enorme mole di lavoro, i moderatori hanno a disposizione solo pochi secondi per decidere se un post va rimosso o meno dalla piattaforma. Questo spiega perché il sistema di monitoraggio dei contenuti messo in piedi da Facebook non risulta essere realmente efficiente, e come l’incertezza da parte dei moderatori può trasformare il social in uno spietato censore, piuttosto che un luogo di totale anarchia. Infatti secondo il «The Guardian»:

Facebook non è in grado di controllare i suoi contenuti; è cresciuto troppo in fretta, raggiungendo dimensioni enormi.

Quali risultati ha ottenuto Facebook?

Nonostante gli sforzi messi in atto da Facebook, la lotta ai contenuti violenti ed estremisti sul social network sembra ottenere scarsi risultati.

Nel 2019 il team di ricerca guidato da Amr al-Azm, docente alla Shawnee State University dell’Ohio, ha monitorato per cinque mesi più di tremila profili Facebook affiliati a organizzazioni estremiste o terroristiche. È così emerso che:

Molti dei contenuti segnalati dallo studio – il video di un’esecuzione, immagini di teste decapitate, propaganda in onore dei militanti martiri – erano sfuggiti all’algoritmo ed erano facili da trovare su Facebook.

Così Amr al-Azm si è chiesto:

Se un piccolo gruppo di ricercatori è in grado di scovare centinaia di pagine con questi contenuti solo eseguendo delle semplici ricerche, com’è possibile che un colosso dotato di enormi risorse non sia in grado di fare lo stesso?

Dal canto suo Mark Zuckerberg afferma che:

In aree come il terrorismo, per contenuti collegati all’Isis o Al Qaeda, il 99% del materiale segnalato viene cancellato prima che chiunque lo possa vedere.

Ma questa statistica riportata dal fondatore di Facebook fa riferimento solo ai contenuti individuati, essa non dice nulla sulla reale percentuale di materiale violento, legato ad ambienti estremisti o terroristici,  presente sulla piattaforma.

Oltre alle falle presenti nel sistema di controllo dei contenuti, Facebook è addirittura in grado di favorire la nascita di organizzazioni terroristiche o di suprematisti bianchi on-line, grazie alla creazione automatica di pagine aziendali. Come riporta un articolo di «Wired»:

Gli utenti che hanno segnalato come datore di lavoro associazioni terroristiche […] hanno portato alla creazione di pagine aziendali che si rifanno proprio a queste società; con il risultato che su Facebook, in alcuni momenti, è possibile mettere “mi piace” all’Isis. In questo modo, queste organizzazioni possono di fatto consultare un elenco di sostenitori.

Lottare contro i contenuti violenti

Tutto ciò mette in mostra il fatto che i social network sono stati progettati senza avere ben presente i loro possibili aspetti negativi. Così queste piattaforme si trovano oggi a dover lavorare a ritroso. L’obiettivo è quello di trovare delle soluzioni efficienti che possano arginare i fenomeni legati all’odio e alla violenza digitale. Sicuramente Facebook, al di là di tutte le lacune evidenziate, si è dimostrato tra le piattaforme più attive in questo senso. Esso ha iniziato anche a collaborare con Microsoft, Twitter e YouTube per condividere informazioni e migliorare i tempi dell’individuazione dei contenuti pericolosi e violenti. Inoltre Facebook collabora con le forze dell’ordine e l’intelligence di molti Stati.

Eppure, nonostante la consapevolezza del problema e la realizzazione di alcuni strumenti di controllo precedentemente elencati,  bisogna sempre tenere bene a mente che la lotta ai contenuti violenti su Facebook e sugli altri social è ancora molto lontana dall’essere vinta.

 

A cura di

Valeria Vinzia


FONTI:

CREDITS: