Perché Wikipedia ha paura della riforma europea del digitale

V. STEFANELLO -Wired

Il Digital services act in discussione vuole essere la legge sulle piattaforme più robusta al mondo. Ma i gestori dell’enciclopedia online temono che possa soffocare comunità, come la loro, che si basano su principi diversiWikipediaWikipedia, l’enciclopedia più grande della reteDal dicembre 2020 le istituzioni europee stanno lavorando a una coppia di leggi che, almeno nelle ambizioni dei legislatori, dovrebbero rappresentare il più robusto e articolato sforzo di regolamentazione delle piattaforme social al mondo. Il Digital Markets Act (Dma) intende garantire un maggiore grado di concorrenza nei mercati digitali europei, impedendo alle grandi imprese di abusare del proprio potere di mercato e consentendo a nuovi attori di emergere. Il suo progetto di legge gemello, il Digital Services Act (Dsa), ha lo scopo di migliorare la moderazione dei contenuti sulle piattaforme social, a fronte della miriade di contenuti illegali e problematici che vengono riversati online ogni giorno.Come scrive l’Electronic Frontier Foundation, una delle più prestigiose organizzazioni che si occupano di protezione dei diritti digitali, “il Dsa offre un’opportunità senza precedenti per rinvigorire principi come la trasparenza, l’apertura e l’autodeterminazione informativa e formulare una visione audace e basata sull’evidenza per affrontare alcune delle sfide più urgenti di oggi”. Il disegno di legge, però, è ancora in via di definizione, e man mano che da Bruxelles arrivano nuovi dettagli o proposte sugli effettivi obblighi che dovrebbero esservi inclusi, si moltiplicano le critiche.Le preoccupazioni della Wikimedia FoundationLa più recente arriva dalla Wikimedia Foundation, la fondazione che sta dietro a Wikipedia, preoccupata per alcuni emendamenti al Dsa di cui si sta discutendo in questi giorni che, secondo la loro analisi, potrebbero mettere a repentaglio il modello collaborativo e non-profit su cui si basa l’enciclopedia partecipativa.VIDEOAlessandro Sannino al Wired Digital Day 2023: Il vero risultato non è il trovato della ricerca, è il ricercatore e noi vorremmo promuovere l’attrazione di ricercatori brillanti.ALESSANDRO SANNINO AL WIRED DIGITAL DAY 2023: IL VERO RISULTATO NON È IL TROVATO DELLA RICERCA, È IL RICERCATORE E NOI VORREMMO PROMUOVERE L’ATTRAZIONE DI RICERCATORI BRILLANTI.“Il sistema di collaborazione aperta di Wikipedia ha consentito la condivisione delle conoscenze su scala globale per oltre vent’anni – scrive Jan Gerlach, responsabile affari istituzionali della fondazione -. Tutto questo è reso possibile solo dalle leggi che ne tutelano il modello, incentrato sui volontari. Ma ora, quel modello basato sulle persone viene catturato nel fuoco incrociato delle proposte di emendamento al Dsa”.Il Dsa è stato scritto principalmente tenendo a mente i modelli di business e l’organizzazione aziendale delle grandi compagnie tecnologiche come Meta o TikTok, ma verrà applicato anche su piattaforme no-profit che sono tenute in vita da tipi diversi di comunità, come Wikipedia. “L’applicazione di una soluzione valida per tutti al complesso problema dei contenuti illegali online potrebbe soffocare un ecosistema diversificato, fiorente e non commerciale di comunità e piattaforme online”, scrive Gerlach.Un approccio diverso alla regolamentazioneLa richiesta dell’enciclopedia libera, che ha compiuto vent’anni questo gennaio e conta oltre 55 milioni di articoli in 300 lingue diverse, è quella di approcciare la regolamentazione delle piattaforme in modo più sfumato in modo da proteggere progetti di interesse pubblico come Wikipedia.Oltre a incentrarsi eccessivamente sulla rimozione dei contenuti illegali – che, scrive Gerlach, “è arduo quanto qualsiasi sforzo per prevenire ed eliminare tutti i crimini nel mondo fisico” – il responsabile di Wikipedia aggiunge che il Dsa dovrebbe tenere in considerazione il fatto che molte piattaforme collaborative non rimuovono i contenuti dannosi con una decisione dall’alto, ma lo fanno attraverso un processo ben rodato di decisioni della comunità, che condivide degli standard precedentemente concordati insieme.L’articolo 14 stabilisce infatti che le piattaforme online saranno ritenute responsabili della rimozione di qualsiasi contenuto illegale caricato dagli utenti dopo essere state informate della presenza di quel contenuto e le obbliga a creare meccanismi che consentano agli utenti di avvisare i fornitori di piattaforme di contenuti illegali.“Queste disposizioni tendono a parlare solo di un tipo di piattaforma: quelle con sistemi di moderazione dei contenuti centralizzati, in cui gli utenti hanno una capacità limitata di partecipare alle decisioni sui contenuti, e la moderazione tende invece a ricadere su un unico organismo gestito dalla piattaforma. Non è chiaro come le piattaforme che non rientrano in questo archetipo saranno interessate dalle versioni finali di queste disposizioni”, scrive Gerlach.“La Wikimedia Foundation gestisce alcune richieste per valutare i contenuti illegali, ma la stragrande maggioranza dei contenuti che non soddisfano gli standard di Wikipedia viene gestita da volontari prima ancora che venga presentato un reclamo alla fondazione – spiega il responsabile -. Temiamo che affidando la responsabilità legale dell’applicazione esclusivamente ai fornitori di servizi e richiedendo loro di rispettare standard rigorosi per la rimozione dei contenuti, la legge disincentivi i sistemi che si affidano a moderatori della comunità e processi deliberativi”, perché “il risultato sarebbe un mondo online in cui i fornitori di servizi, non le persone, controllano quali informazioni sono disponibili online”.La stessa preoccupazione si applica anche al processo di definizione dei termini d’uso della piattaforma stessa, che nel caso di Wikipedia vengono sviluppati e applicati dai volontari. “Questo modello consente alle persone che conoscono un argomento di determinare quale contenuto dovrebbe esistere sul sito e come tale contenuto dovrebbe essere mantenuto – dice l’esperto -. Questo modello, sebbene imperfetto, mantiene Wikipedia neutrale e affidabile”. Tuttavia, chiosa, è “ben lontano dalla struttura di potere top-down delle piattaforme commerciali a cui si rivolgono le disposizioni del Dsa. Il Dsa dovrebbe proteggere e promuovere gli spazi sul web che consentono una collaborazione aperta invece di costringere Wikipedia a conformarsi a un modello top-down”.L’eterno problema della moderazione algoritmicaL’ultima critica della Wikimedia Foundation si estende oltre ai problemi che toccherebbero l’enciclopedia libera in caso il Dsa dovesse mantenere l’assetto attuale, e va a toccare un problema estremamente spinoso contro cui si sono scontrate tutte le leggi che hanno provato a regolamentare le piattaforme social finora: quella della moderazione algoritmica.Come scrivono gli accademici Robert Gorwa, Reuben Binns e Christian Katzenbach su Big Data & Society, infatti, la moderazione algoritmica è diventata necessaria per rispondere alle crescenti pressioni pubbliche e politiche sulla rimozione di contenuti illegali dalle piattaforme, ma questi sistemi rimangono estremamente opachi e irresponsabili.“I sistemi di moderazione potrebbero esacerbare, piuttosto che alleviare, molti problemi esistenti”, scrivono gli autori dello studio, spiegando che l’utilizzo sistematico di queste tecnologie aumenterebbe ulteriormente l’opacità delle scelte di moderazione, rendendo ancora più difficile da comprendere o controllare un insieme di pratiche notoriamente non trasparente.Insomma, gli algoritmi non possono sostituire moderatori umani. Eppure gli articoli 12 e 14 del Dsa chiedono alle piattaforme di assumere il controllo di tutte le decisioni sulla moderazione dei contenuti. Questo, secondo Gerlach, incoraggerebbe o addirittura richiederebbe l’uso di sistemi di rilevamento automatico dei contenuti.“I legislatori europei dovrebbero evitare di fare eccessivo affidamento sul tipo di algoritmi utilizzati dalle piattaforme commerciali per moderare i contenuti – conclude -. Se il Dsa costringe o incentiva le piattaforme a implementare algoritmi per esprimere giudizi sul valore o sulla natura lesiva dei contenuti, tutti noi, in quanto cittadini digitali, perdiamo l’opportunità di plasmare insieme il nostro futuro digitale”.

error: Content is protected !!