Digital Services Act, le norme UE sui social network

Il web è sempre più spesso protagonista di vicende che ci fanno interrogare su quanto possa essere positiva la sua esistenza. La domanda è normalmente reazionaria: basta pensare al gigantesco salto tecnologico che internet ha permesso negli ultimi decenni e subito capiamo quanto sia riduttiva. Non si possono tuttavia negare le criticità che emergono con l’aumentare degli utenti che accedono al web, e di conseguenza gli interessi economici (ma non solo) che si generano.

Con l’aumentare di questi interessi, la situazione si è fatta sempre più confusa. I meccanismi di funzionamento di siti e applicazioni sono spesso nebulosi. Basti pensare a casi eclatanti quali la vicenda di Cambridge Analytica: quantità immense di dati che venivano raccolti per influenzare processi democratici.

Nell’Unione Europea, tuttavia, la legislazione a tutela degli utenti è ferma da molti anni. Dal 2000, anno in cui è entrato in vigore la direttiva sul commercio elettronico, la regolamentazione del mercato digitale non ha subito sostanziali modifiche. Per ovviare a questo problema, dalla scorsa estate, la Commissione Europea si è messa all’opera per riscrivere le regole del web nel Vecchio Continente.

Cos’è il Digital Services Act

Il Digital Services Act (DSA) è un pacchetto di misure che punta ad aggiornare il quadro giuridico nel quale si muovono i servizi digitali nell’Unione. In parallelo al DSA, si lavora al DMA, Digital Markets Act. La prima mira a stilare regole chiare per definire le responsabilità dei fornitori di servizi digitali verso i propri utenti. La seconda è volta invece a definire regole che incidano sulle grandi piattaforme, garantendo un comportamento equo e quindi una concorrenza leale.

Il processo non sarà, ovviamente, breve: la Commissione ha avviato la fase di consultazione pubblica il 2 giugno puntando a presentare una proposta strutturata entro dicembre. Le proposte della commissione richiedono generalmente dai 12 ai 18 mesi per superare l’iter legislativo, per cui è probabile che sarà convertita in legge nel 2022.

Fino all’8 settembre i cittadini dell’Unione hanno potuto partecipare alla consultazione, valutando temi quali sicurezza online, diritti fondamentali, equità nell’economia digitale… Il tema della concorrenza è fondamentale, come spiegato dal Commissario per il Mercato interno Thierry Breton per “garantire che vi sia spazio per l’innovazione nel mercato unico dell’UE”.

La responsabilità nel Digital Services Act

Uno dei temi più scottanti della normativa è quello della responsabilità dei fornitori di servizi digitali. Il dibattito è stato ampio negli ultimi anni: molti chiedono che i social network, ad esempio, vengano trattati come editori. Tra questi, Donald Trump, che recentemente ha ribadito la sua intenzione di rimuovere la sezione 230 del Communications Decency Act, il passaggio che tutela da tale responsabilità le piattaforme social negli USA.

La nuova normativa europea pare non modificherà radicalmente tale concezione, trovando una sorta di compromesso. Da quanto emerge dalla proposta, infatti, l’obiettivo sarebbe quello di arrivare a una responsabilità proporzionale al modello di business. Società più grandi, che traggono guadagno dalla profilazione degli utenti e tendono a influenzarli con i contenuti che vengono presentati, avranno responsabilità maggiori. Una piattaforma più piccola, che fa semplicemente hosting (quali possono essere ad esempio i forum), avranno un regime molto più leggero.

Colossi quali Google, Amazon, Facebook e Apple (spesso indicati con l’acronimo GAFA) saranno certamente più colpiti da tali misure, vedendosi così costretti a dedicare più attenzione ai contenuti che ospitano.

L’intervento del Parlamento Europeo

Il 20 ottobre, di sua iniziativa, il Parlamento ha emanato tre risoluzioni con cui conferma la necessità di un legge di questo tipo, dettando allo stesso tempo alcune condizioni su temi essenziali del progetto della Commissione.

Con la prima risoluzione il Parlamento invita la Commissione a continuare il suo lavoro, invitando tuttavia a porre particolare attenzione sulle norme emanate anche dopo il 2000. Tra queste, ovviamente, un peso notevole è attribuito al GDPR. Oltre a ciò, viene ricordato lo scopo fondamentale di tale iniziativa: la tutela, prima di tutto, dei consumatori.

La seconda risoluzione invita la Commissione a fornire agli utenti un maggior controllo sui contenuti a cui sono esposti, rendendo meno incisivi gli algoritmi solitamente impiegati dai vari siti. Si esaminano poi i problemi della pubblicità mirata: il testo arriva addirittura a chiederne il divieto.

Nella terza risoluzione, infine, viene richiesto un impegno profondo dei gestori delle piattaforme nella gestione dei contenuti illegali, allo scopo di salvaguardare libertà di espressione e informazione, oltre alla tutela della privacy. Ovviamente questo tema sfocia facilmente nella censura, per cui il terreno è ostico e saranno gli organi europei a doversi impegnare per trarre il meglio da questa occasione.

 

A cura di

Federico Villa


FONTI:

CREDITS: