Wired S.COSIMI

LA CORSA ALL’ORO DELL’AI23.04.2024

Dal predominio delle big tech alla guida dei governi: ecco come la rivoluzione dell’AI potrà influenzare politiche e mercato del vecchio continente

Un personaggio Lego con le fattezze di un robot davanti al computerCJMACER/GETTY IMAGES

Mercato, predominio delle big del tech, guida dei governi, oligopolio. Sono i quattro scenari per l’industria europea dell’intelligenza artificiale generativa che Eit Digital, un’organizzazione punto di riferimento per l’open innovation a livello europeo, immagina nel suo ultimo, interessante report battezzato Generative AI: Europe’s Quest for Regulation and Industry Leadership. “La metodologia utilizzata nel report consiste di un’analisi della principale letteratura accademica e di articoli e resoconti di testate specializzate sul tema, a cui ha fatto seguito un approfondimento da parte di esperti di alto livello, quali membri del Parlamento Europeo, degli Stati membri, della Commissione Europea e di importanti aziende multi-nazionali, associazioni di categoria, professori di università, Ceo e fondatori di startup e scaleup operanti nell’ambito dell’intelligenza artificiale – spiega Federico Menna, ad di Eit Digital, a Wired Italial’analisi è stata effettuata poi nello specifico incrociando le due principali fonti d’incertezza per l’evoluzione del settore, ovvero l’evoluzione della regolamentazione e della struttura di mercato”.

Sono infatti due le dimensioni, strettamente sovrapposte, da considerare per cercare di prevedere come si evolverà l’intelligenza artificiale generativa, specialmente in Europa: regole e competizione. “La tecnologia dietro l’intelligenza artificiale generativa può essere vista come il principale motore del cambiamento che impatta sia le dinamiche socioeconomiche che la regolamentazione – dice l’ad di Eit, che è una delle principali organizzazioni europee per l’innovazione digitale e l’educazione all’imprenditorialità – nell’attuale panorama tecnologico c’è una focalizzazione su modelli generalisti, monolitici e closed source, che richiedono ingenti risorse in termini di investimenti, dati e potenza di calcolo. Tuttavia, esistono incertezze riguardo al futuro sviluppo di questo panorama tecnologico, poiché esistono alternative in queste tre dimensioni: modelli generalisti contro specialistici, modelli monolitici contro federativi e approcci open-source contro closed-source per lo sviluppo e l’addestramento dei modelli. Questi sviluppi tecnologici potrebbero portare a una maggiore o minore competizione, impattando i modelli di business e i flussi di ricavi. La tecnologia potrebbe anche rendere la regolamentazione ridondante oppure obsoleta o generare nuove opportunità associate a nuovi rischi che richiederebbero nuove regolamentazioni”.

Se l’AI Act non basta

I possibil scenari

Normare l’AI a ogni livello?

Se l’AI Act non basta

Federico Menna, Ceo di EIT Digital

Insomma, l’AI Act, il regolamento europeo sull’intelligenza artificiale, da molti accolto forse con eccessivo entusiasmo, non sembra né sufficiente né chiaro nei suoi cardini. Secondo l’esperto, infatti, stabilisce molti ottimi principi generali “ma ancora non è perfettamente chiaro come verrà implementato. Ci sono gli standard da definire e ancora molti aspetti di dettaglio che non sono ancora completamente chiari”. Quali sono? Per esempio, la procedura per la designazione del modello Gpai (General Purpose AI) come livello 1 (quello con meno obblighi) o livello 2 (modelli Gpai con rischi sistemici soggetti a più vincoli) lascia margini alle aziende per future contestazioni. Inoltre, i modelli Gpai con rischio sistemico possono conformarsi all’AI Act dell’Unione aderendo a codici di condotta, almeno fino a quando non saranno pubblicati standard armonizzati probabilmente ma non certamente entro il 2025.

Infine – commenta Menna – i modelli Gpai di livello inferiore saranno esenti dai requisiti di trasparenza mentre si trovano nella fase di R&S o se sono open source. È lecito concludere che la regolamentazione dell’intelligenza artificiale generativa è tutt’altro che certa e chiara. Inoltre, considerata la velocità dell’evoluzione tecnologica, che nell’AI sta superando qualsiasi caso precedente, è necessario creare una regolamentazione che possa evolvere insieme alla tecnologia in un processo di co-creazione tra i regolatori e gli innovatori”.

I possibili scenari

Quattro, come si diceva, gli scenari delineati dal rapporto. Il primo, uno scenario di “innovazione trainata dal mercato“, immagina una regolamentazione leggera che abilita un vivace ecosistema competitivo di startup e pmi. Il secondo, denominato “dominio delle big tech“, causato da una regolamentazione pesante che esclude i piccoli attori. Il terzo, “Innovazione guidata dal governo“, farebbe leva su investimenti pubblici che rendono possibile l’entrata di nuovi attori, nonostante regole severe.  Il quarto descrive invece un futuro “oligopolistico” con un approccio normativo che consentirà a startup, pmi e studiosi accademici di innovare senza dover rispettare obblighi e requisiti rigidi, ma in cui è probabile che i grandi operatori storici continuino a dominare il mercato. Ma quale sarebbe il migliore, quello che favorisca lo sviluppo dell’AI senza riprodurre il far west che per anni abbiamo visto con i servizi digitali?

Il quadro ideale sarebbe quello di una regolamentazione chiara ma che al tempo stesso non rappresenti un ostacolo all’innovazione per gli innovatori, le startup e le pmi – risponde Menna -. Nel caso dello scenario della innovazione guidata dal governo, la presenza di una regolamentazione rigorosa, combinata con dinamiche socioeconomiche inclusive rese possibili da ingenti investimenti pubblici a sostegno di innovatori e startup di AI, permette al governo di assumere un ruolo attivo nella definizione del mercato, imponendo la regolamentazione e orchestrando investimenti concertati ad esempio per stimolare le scaleup europee e fornire infrastrutture di calcolo pubbliche che possono generare effetti positivi in termini di posti di lavoro e ricavi. Se in uno scenario del genere, ad esempio, il governo europeo riuscisse a guidare efficacemente l’innovazione attraverso partnership pubblico-privato, questo scenario consentirebbe di raggiungere un buon equilibrio tra regolamentazione e leadership industriale”.

Normare l’AI a ogni livello?

In ogni caso, quale che sia il percorso normativo e di mercato che imboccheremo, l’intelligenza artificiale dovrà essere considerata nei prossimi anni in ogni elemento normativo, in ogni legge, in ogni regolamento, proprio come negli anni abbiamo dovuto considerare il digitale in senso ampio: “Sarà un elemento fondamentale da considerare e normare nei prossimi anni in molti ambiti normativi, leggi e regolamenti – conclude Menna -. Il paragone con la diffusione e la regolamentazione del digitale è appropriato, ma l’AI porta con sé sfide ancor più complesse data la sua capacità di ‘apprendere’ e operare con un certo grado di autonomia. Le sue applicazioni possono portare a miglioramenti significativi in termini di efficienza e nuove possibilità di innovazione, in una vasta gamma di settori, dalla salute, alla sicurezza, all’istruzione, al lavoro, all’etica, e oltre. Tuttavia, sollevano anche questioni complesse relative alla privacy, alla sicurezza dei dati, alla responsabilità, ai diritti d’autore, all’equità e a molte altre aree. Questo richiede un nuovo approccio nella normativa che tenga conto della rapidità dell’innovazione tecnologica e della necessità di garantire che tali sviluppi benefici siano accessibili a tutti, pur proteggendo i diritti fondamentali e la sicurezza delle persone”.

error: Content is protected !!