Wired

La vera sfida delle elezioni 2024 si chiama intelligenza artificiale

Perché può creare danni in campagna elettorale, attraverso la diffusione di deepfake che inguaiano i candidati. Google e i social network provano a prevenire i danni.

C’è un nuovo elemento in politica che potrebbe avere un ruolo determinante alle prossime elezioni: è l’intelligenza artificiale. La diffusione dell’innovativa tecnologia che facilita la creazione di immagini false accresce il timore che la disinformazione intorno alle prossime campagne elettorali sia in aumento, tanto che Google richiederà presto che gli annunci politici sulle sue piattaforme facciano sapere quando immagini, audio o testi sono stati creati con l’AI.Dato che nel 2024 due miliardi di persone voteranno in più di 50 elezioni nel mondo, tra cui quelle negli Stati Uniti, in India e nell’Unione Europea, i social network provano a tutelarsi mentre le istituzioni monitorano la situazione. Tuttavia, alcuni esempi recenti di diffusione di fake news generate con l’intelligenza artificiale hanno già dimostrato come l’interferenza dell’Ai in politica sia una novità di cui tenere conto nei risultati elettorali.

Le nuove regole di Google

Google presto richiederà che gli annunci politici sulle sue piattaforme informino le persone quando immagini e audio sono stati creati usando l’intelligenza artificiale. Queste regole sono state introdotte in risposta alla “crescente diffusione di strumenti che producono contenuti sintetici”, ha dichiarato un portavoce di Google alla Bbc. Il cambiamento è previsto per novembre, circa un anno prima delle prossime elezioni presidenziali negli Stati Uniti e delle elezioni europee di giugno 2024.

Alphabet ha già politiche pubblicitarie che vietano la manipolazione dei media digitali per ingannare o fuorviare le persone in materia di politica, questioni sociali o affari di interesse pubblico. Con la nuova appendice, gli annunci legati alle elezioni dovranno “evidenziare in modo chiaro se contengono contenuti sintetici che raffigurano persone o eventi reali o realistici”. Google suggerisce etichette e watermark come “questa immagine non raffigura eventi reali” o “questo video è stato generato sinteticamente” al fine di segnalare i post creati con l’intelligenza artificiale. L’azienda ha affermato di continuare a investire in tecnologia per rilevare e rimuovere tali contenuti dal suo motore di ricerca e da YouTube.

L’azione di Google potrebbe esercitare una necessaria pressione su altre piattaforme online affinché seguano l’esempio. Meta, la società di Facebook e Instagram, non ha una regola specifica per gli annunci politici generati dall’intelligenza artificiale, ma limita già l’audio e le immagini falsificate, manipolate o trasformate utilizzate per la disinformazione. TikTok non consente annunci politici, ma sono invece ammessi i deepfake di personaggi pubblici con contenuto artistico o educativo. X, ex Twitter, non ha al momento rilasciato commenti a riguardo, ma il sito di Elon Musk appare come quello maggiormente a rischio.

All’inizio dell’anno, su Twitter è circolato un video falso che sembrava mostrare il presidente degli Stati Uniti, Joe Biden, mentre annunciava di aver reintrodotto la leva obbligatoria e di voler mandare gli americani a combattere in Ucraina. Inizialmente il video riportava una didascalia che lo descriveva come “un’immaginazione” dell’AI, ma ha perso rapidamente il testo di accompagnamento in seguito alla sua diffusione, dimostrando quanto facilmente l’uso della tecnologia, pur se condiviso in modo trasparente, possa eventualmente trasformarsi in disinformazione.

I danni causati dall’intelligenza artificiale in politicaAlcune campagne presidenziali per le elezioni statunitensi del 2024, tra cui quella del governatore della Florida Ron DeSantis che mostrava il rivale alle primarie repubblicane Donald Trump abbracciare il rivale Anthony Fauci, hanno già utilizzato questa tecnologia. E lo stesso è avvenuto in altre parti del mondo: in Sudafrica si sono verificate violenze causate dalla xenofobia sui social media nei confronti di migranti, rifugiati e richiedenti asilo dovute ad immagini artificiali che mostravano un vasto numero di individui in necessità nelle strade locali. In India si è assistito di recente una nuova ondata di violenze a sfondo religioso dovuto alla diffusione su Whatsapp di fake news accompagnate da testi e immagini generate tramie AI. Le email per inviare informazioni agli elettori sono un altro campo dove la tecnologia rischia di incentivare il proliferare di notizie false.

Davvero i social network influenzano il modo in cui votiamo?Da anni sospettiamo che Facebook e le altre piattaforme condizionino negativamente lo scenario politico e danneggino la nostra salute mentale. Ora un progetto di ricerca della Bocconi punta a vederci chiaroEsistono anche potenziali usi benefici dell’AI in politica. Uno dei principali casi di utilizzo costruttivo nei processi democratici è quello di setacciare grandi quantità di dati per aiutare a informare le decisioni politiche dei governi. Inoltre, può funzionare come moderatore delle discussioni elettorali per risalire a quanto detto da un candidato in passato e verificare se le sue affermazioni siano originali. L’intelligenza artificiale generativa verrà impiegata anche per personalizzare i messaggi ai singoli elettori. Eppure, al momento i rischi appaiono maggiori rispetto alle prospettive positive. L’anno prossimo sarà un banco di prova importante per scoprire quanto l’applicazione dell’AI possa influenzare le scelte politiche dei prossimi anni.

error: Content is protected !!