Europa e Stati Uniti stanno introducendo nuove regole per limitare le pressioni esercitate sulle piattaforme dagli enti statali, con qualche scappatoia.

PARESH DAVE – Wired

Mentre nel maggio 2021 la polizia israeliana reprimeva le proteste palestinesi per le strade di Gerusalemme, un’altra agenzia governativa tentava di fare pulizia sui social network. Il dipartimento anticrimine informatico del ministero della Giustizia israeliano ha infatti inviato alle aziende di social media elenchi con migliaia di account che voleva fossero rimossi per aver violato le norme sui contenuti delle piattaforme con i loro post sulle proteste.Un ex dipendente di Twitter afferma che l’azienda ha effettivamente sospeso alcuni degli account segnalati dall’autorità israeliana, che avevano usato un linguaggio offensivo o molesto. Ma i responsabili delle politiche digitali della piattaforma hanno stabilito che, per la maggior parte, si trattava di semplici utenti palestinesi o di altra provenienza che, pur twittando commenti critici nei confronti di Israele, non avevano violato alcuna regola.Che cosa sono le IruIl dipartimento informatico israeliano è un esempio di ciò che gli studiosi delle piattaforme online chiamano unità addette alle segnalazioni su internet (in inglese internet referral unit, o Iru): un team governativo creato per costringere i servizi online a intervenire contro i contenuti non graditi. A mano a mano che in tutto il mondo i governi cercano di adeguarsi all’esistenza delle piattaforme online, nuove Iru vengono istituite in continuazione. E spesso le aziende tecnologiche danno la priorità alle loro richieste, cosa che preoccupa chi sostiene che queste unità possano agire in base a moventi politici, aggirando gli ostacoli legali pensati per prevenire la censura ingiusta.Dopo un decennio di crescita per lo più incontrollata, le Iru oggi si trovano ad affrontare, negli Stati Uniti come nell’Unione europea (Ue), la prospettiva di nuovi controlli e contrappesi.

A luglio, un giudice federale della Louisiana ha emesso un’ingiunzione preliminare che vieta a 41 funzionari dell’amministrazione del presidente Joe Biden e al loro staff di 10 diversi enti statunitensi di segnalare alle aziende di social media i contenuti che dal loro punto di vista violano le condizioni d’uso del servizio. Il divieto ha fortemente ristretto l’influenza della Casa Bianca sulle piazze digitali attraverso le Iru informali di questi enti, costringendo il Dipartimento di Stato a rimandare un incontro già in programma con Meta per la condivisione di informazioni sul contrasto alla disinformazione all’estero. Nell’Ue, le unità di segnalazione saranno sottoposte a nuovi requisiti di trasparenza in base a una disposizione del Digital Services Act, la normativa sui servizi digitali che entrerà in vigore il prossimo anno.

La sentenza e la legge sono i primi ostacoli significativi che vengono posti all’attuale connivenza tra piattaforme online, enti governativi e altre organizzazioni che pattugliano il web per eliminare in modo discreto i commenti sfavorevoli. Ma gli attivisti per la libertà di espressione, pur applaudendo le nuove misure, sottolineano che, in assenza di controlli o politiche di trasparenza adeguati, le Iru e le decisioni di moderazione che ispirano potranno in gran parte proseguire indisturbate.L’ascesa dei moderatori-ombraNel Regno Unito, le Iru sono apparse per la prima volta intorno al 2010, quando le autorità antiterrorismo hanno cominciato a incalzare i servizi come Facebook e YouTube affinché migliorassero la gestione dei contenuti generati da estremisti islamici violenti. Nel tentativo di migliorare i rapporti con i governi, le aziende hanno perlopiù acconsentito alle richieste, arrivando addirittura ad assegnare alle Iru lo status di “segnalatori fidati”, esaminando più tempestivamente le loro richieste rispetto a quelle degli altri utenti.I numeri delle Iru, così come le loro attività, sono rapidamente lievitati. Le aziende hanno cominciato a nominare come segnalatori fidati anche organizzazioni della società civile. Alla fine degli anni Dieci, le autorità di paesi come la Germania e la Francia si sono servite di queste tattiche per reprimere l’estremismo politico di destra sui social network, e in seguito la disinformazione sanitaria durante la pandemia.Le unità di segnalazione non sono sempre entità formali o ben strutturate, e le loro competenze variano a seconda dei casi, ma col tempo si è andata consolidando una procedura comune: scegliere un argomento da monitorare, come la disinformazione politica o l’antisemitismo, setacciare i social in cerca di contenuti problematici e segnalarli alle aziende attraverso linee telefoniche dedicate, comunicazioni cartacee, rapporti diretti con gli addetti ai lavori o i comuni pulsanti a disposizione di tutti gli utenti. A volte queste unità segnalano solo ciò che all’apparenza sembra un’attività criminale, ma alcune denunciano anche contenuti che, pur legali, sono vietati dalle regole della piattaforma in questione, come la nudità o gli account bot.Il più delle volte, dicono gli esperti, le piattaforme si adeguano volontariamente, in quanto le richieste non sono legalmente vincolanti; in genere gli utenti non vengono informati di chi ha segnalato i loro contenuti. Gli attivisti per i diritti hanno da tempo espresso il timore che le Iru aggirino di fatto le procedure legali, barattando la velocità e la semplicità con la trasparenza e i controlli su eventuali abusi di potere, e al tempo stesso relegando in fondo alla fila le segnalazioni degli utenti.Secondo diversi esperti e quattro ex dipendenti di aziende tecnologiche che hanno gestito questo tipo richieste, le piattaforme di social media possono subire forti pressioni ad accogliere le istanze delle Iru, in quanto contrastarle potrebbe portare a nuove regole che aumenterebbero i costi della loro attività. Che politici e gruppi di influenza richiedano canali diretti per esprimere le loro riserve sui contenuti, e che le piattaforme li forniscano, è prassi comune.Gli equilibri di potere esistenti offline si riflettono anche su internet. L’Autorità nazionale palestinese, uno degli organismi politici coinvolti nel conflitto israelo-palestinese, “non ha l’influenza o i rapporti con Meta necessari a gestire una Iru efficace”, afferma Eric Sype del gruppo di attivisti per i diritti dei palestinesi 7amleh. Meta, TikTok e Twitter non hanno risposto alle richieste di commento di Wired US, mentre YouTube ha preferito declinare.È già successo che l’operato delle Iru fosse contestato. Nel 2021, anno in cui Israele si è scontrata con i manifestanti a Gerusalemme Est ed è andata a bussare a varie aziende tra cui Twitter, la Corte Suprema del paese ha respinto un’azione legale nei confronti dell’unità di segnalazione del ministero della Giustizia, definendo il suo operato “essenziale per la sicurezza nazionale e l’ordine sociale”, e consentendole di proseguire la propria attività. Quell’anno la Iru, stando all’informativa annuale del governo israeliano e a un’analisi del dipartimento di Stato americano, ha inviato alle aziende tecnologiche quasi 6000 richieste, tra cui oltre 1300 soltanto a Twitter, chiedendo la rimozione volontaria o la restrizione di contenuti che facevano “apologia del terrorismo” e disinformazione sui vaccini contro il Covid. Secondo i dati, quasi 5000 di queste richieste sono state accolte. L’ambasciata di Israele a Washington non ha risposto a una richiesta di commento.Anche l’Oversight Board di Meta, un organo di appello indipendente per le controversie legate alla moderazione dei contenuti, si è opposto alle ingerenze. L’anno scorso, l’azienda aveva rimosso un brano di musica drill britannica su richiesta della polizia londinese, preoccupata che il riferimento a una sparatoria contenuto nel testo potesse incitare alla violenza. L’Oversight Board ne ha annullato la rimozione, affermando che Meta non aveva prove sufficienti che la minaccia fosse credibile, e ha rimproverato l’azienda per aver accolto le richieste informali delle forze dell’ordine in modo “disordinato e poco trasparente”. Ha inoltre chiesto a Meta di rendere pubbliche tutte le richieste di questo tipo, appello rinnovato questo mese da Michael McConnell e Suzanne Nossel, rispettivamente condirettore e membro dell’Oversight Board, in due diversi articoli. Sul suo sito web, Meta sostiene di essere al lavoro per ottemperare alla richiesta, ma non dice di non sapere quanto tempo sarà necessario per farlo, vista la difficoltà nel centralizzare tutte le richieste.Nuove regoleIl colpo più duro finora inferto alle Iru risale allo scorso luglio, con la sentenza di un tribunale federale degli Stati Uniti che vieta ai funzionari delle agenzie di presentare richieste di rimozione ai social media. È stata emessa dopo che due stati governati da conservatori e vari utenti avevano intentato causa sostenendo che la Casa Bianca violava la protezione sancita dal primo emendamento della costituzione americana contro la censura governativa, insistendo affinché Facebook e Twitter aggiungessero avvertenze sui post e sospendessero degli account. I contenuti contestati mettevano in discussione l’utilizzo delle mascherine contro il Covid, i vaccini, l’origine del virus e i lockdown.Il giudice ha stabilito che i querelanti sarebbero probabilmente riusciti a dimostrare che il bombardamento di richieste di rimozione tramite email e telefonate da parte di funzionari della Casa Bianca e delle agenzie federali rappresentava una forma di pressione sulle aziende di social media, pratica nota negli Stati Uniti con il nome di jawboning. Il giudice accusava inoltre l’amministrazione di bersagliare nello specifico le “opinioni di destra sgradite”, e poneva l’accento sulle richieste, informali ma talvolta dai toni accesi, inviate via email dai funzionari. Una di queste recitava: “È impossibile sottolineare abbastanza quanto sia necessario risolvere la questione al più presto. Vi prego di rimuovere immediatamente questo account”.Il divieto negli Stati Uniti, momentaneamente sospeso per il ricorso in appello della Casa Bianca, tenta di fissare dei limiti di condotta accettabili per le Iru governative, e prevede un’eccezione per i funzionari che devono segnalare alle aziende di social media attività illegali o questioni di sicurezza nazionale. Emma Llansó, direttrice del Free Expression Project presso il Center for Democracy & Technology di Washington, sostiene che molte questioni restano irrisolte, in quanto il confine tra la giusta tutela della pubblica sicurezza e l’ingiusta soppressione delle voci critiche può essere sottile.Secondo alcuni attivisti, anche il nuovo approccio alle Iru dell’Unione europea sarebbe discutibile. Il Digital Services Act (Dsa) prevede che ogni paese membro dell’Ue designi entro febbraio un organismo regolatore nazionale destinato ad accogliere le richieste di enti governativi, organizzazioni non profit, associazioni di settore o aziende che vogliano diventare segnalatori fidati, in grado quindi di segnalare contenuti illegali direttamente a Meta e ad altre piattaforme di dimensioni medio-grandi. Le loro segnalazioni dovranno essere esaminate “senza indebiti ritardi”, pena multe fino al 6% del fatturato annuo globale.La legge punta a rendere più mirate le richieste delle Iru, nominando come segnalatori fidati un numero limitato di organizzazioni esperte in diverse tipologie di contenuti illegali, come l’incitamento all’odio razziale, la contraffazione delle merci o la violazione del copyright. Ogni anno le organizzazioni dovranno dichiarare quante segnalazioni hanno presentato, a chi e con quali risultati.Le possibili scappatoieQueste dichiarazioni però presenteranno notevoli lacune, in quanto comprenderanno solo le richieste relative ai contenuti illegali in un determinato stato dell’Ue, lasciando quindi passare inosservate quelle relative alle violazioni dei termini di servizio. Sebbene le aziende tecnologiche non siano tenute a dare priorità alle segnalazioni di contenuti che violano le regole interne, nulla impedisce loro di farlo. Le piattaforme, inoltre, possono continuare a collaborare con segnalatori fidati non in elenco, cosa che di fatto preserva le attuali pratiche poco trasparenti. Il Dsa impone però alle aziende di pubblicare tutte le loro decisioni relative alla moderazione dei contenuti in un database dell’Ue senza “indebiti ritardi”, anche se l’identità del segnalatore può essere omessa.“Il Dsa istituisce una nuova struttura parallela per i segnalatori fidati senza affrontare in modo diretto i timori relativi ai segnalatori esistenti come le Iru”, afferma Paddy Leerssen, un ricercatore post-dottorato presso l’università di Amsterdam che collabora con un osservatorio permanente sul Dsa.Due funzionari dell’Ue che si occupano di applicazione del Dsa, e che hanno chiesto di rimanere anonimi in quanto non autorizzati a parlare con la stampa, affermano che la nuova legge punta a garantire che tutti i 450 milioni di abitanti dell’unione possano beneficiare dell’invio da parte dei segnalatori fidati di notifiche tempestive ad aziende che altrimenti potrebbero non collaborare. Sebbene la nuova qualifica di segnalatore di fiducia non sia pensata per le agenzie governative e le forze dell’ordine, nulla impedisce a queste di fare domanda, e il Dsa indica specificamente le unità di segnalazione come possibili candidati.Gli attivisti temono che, qualora i governi prendessero parte al programma per i “segnalatori fidati”, questo potrebbe essere usato per reprimere la libera espressione nei paesi del blocco sfruttando le leggi più severe adottate nell’Ue, come il divieto attualmente in vigore in Ungheria (ma impugnato in tribunale) di promuovere le relazioni omosessuali nei materiali didattici. Eliška Pírková, responsabile globale per la libertà di espressione di Access Now, sostiene che per le aziende tecnologiche sarà difficile resistere alle pressioni, anche se i coordinatori dei singoli stati potranno sospendere i segnalatori fidati che riterranno abbiano agito in modo improprio. “C’è una totale assenza di tutele indipendenti – dice –, ed è piuttosto preoccupante”.Tamás Berecz, direttore generale di Inach, una rete globale di gruppi non governativi che combatte l’odio online, sostiene che alcuni dei 24 membri europei stanno valutando la possibilità di richiedere ufficialmente lo status di “segnalatore fidato”. Non mancano però i timori, tra cui quello che i coordinatori di alcuni paesi non approvino le richieste di organizzazioni i cui valori non sono in linea con quelli del governo, per esempio nel caso di un gruppo che monitora l’incitamento all’odio contro gli omosessuali in un paese come l’Ungheria, dove il matrimonio tra persone dello stesso sesso è vietato. “Non abbiamo idea di cosa succederà”, dice Berecz, che tuttavia lascia spazio a un moderato ottimismo: “Per ora gli va benissimo far parte di un ‘programma di sengalatori di fiducia’ non ufficiale”.Questo articolo è comparso originariamente su Wired US.

error: Content is protected !!