L’Ue vuole un’intelligenza artificiale regolata e umana, investimenti da 200 mld in 10 anni

Bruxelles – La corsa al futuro digitale è appena iniziata e l’Europa vuole partecipare da sovrana. Sull’intelligenza artificiale (AI) e la condivisione dei dati industriali dovrà vedersela con Stati Uniti e Cina ma, rispetto al passato, assicurano a Bruxelles, le armi ora sono affilate. A partire dagli investimenti: 20 miliardi di euro all’anno nei prossimi dieci anni. E poi norme chiare e vincolanti per i sistemi di AI ad alto rischio, come il riconoscimento facciale, senza paura di colpire le Big Tech a stelle e strisce. Ma anche un “mercato unico europeo” dei dati industriali per imprese e governi, capace – ha garantito il commissario Ue per il Mercato interno, Thierry Breton – di “cambiare le nostre società ed economie” e mettersi al servizio di crescita, ambiente e infrastrutture.

Nel suo atteso ‘White Paper’ sull’intelligenza artificiale, primo passo verso una vera e propria regolamentazione che arriverà a fine anno, Bruxelles mette in evidenza le opportunità ma anche i dilemmi portati dalle nuove tecnologie. A esaltare la rilevanza della sfida ci ha pensato la presidente della Commissione Ue, Ursula von der Leyen, chiedendo coraggio perché è giunto il momento che l’Ue faccia “le proprie scelte, basate sui propri valori, rispettando le proprie regole”. Dal 2014, i finanziamenti Ue destinati alla ricerca e all’innovazione in materia di IA sono saliti a 1,5 miliardi di euro (con un aumento del 70% rispetto al 2007-2013). Un mercato importante, considerando che oltre il 25% di tutti i robot industriali o destinati a servizi personali sono prodotti in Europa. E le nuove tecnologie, ha precisato la vicepresidente Ue Margrethe Vestager, “devono servire i cittadini e non il contrario”. Significa, chiarisce Bruxelles nella sua comunicazione, garantire sicurezza, trasparenza e un approccio che tenga l’uomo al centro, per mitigare il lato ‘oscuro’ dell’AI, foriero di rischi, dalla privacy alla discriminazione. In particolare in settori ‘sensibili’ come “salute, polizia e trasporti”. Dal canto loro, i governi sono chiamati a “testare e certificare gli algoritmi” dietro alle applicazioni, per tutelare il rispetto dei diritti fondamentali.

Un’avvertenza valida soprattutto per il controverso riconoscimento facciale, su cui è caduta l’iniziale idea dell’Ue di imporre un bando totale per cinque anni all’uso nei luoghi pubblici (complice forse anche la contrarietà del Ceo di Google, Sundar Pichai). Ma resta la riserva di legge per i governi nazionali. “Il suo uso è generalmente proibito” dal Gdpr, spiega Vestager, le eccezioni dovranno essere “debitamente giustificate e proporzionate”.

Per le applicazioni a basso rischio, invece, è previsto un sistema volontario di etichettatura.

La previsioni di crescita dell’Europa nell’IA e nei dati al 2025 indicano la portata dell’ambizione: rispetto al 2018, il volume globale dei dati aumenterà del 530% (da 33 zettabyte nel 2018 a 175 zettabyte) per un’economia dei dati in Ue da 829 miliardi di euro (erano 301 miliardi, pari al 2,4% del Pil europeo, nel 2018). I professionisti dei dati in Ue saranno 10,9 milioni (erano 5,7 milioni nel 2018) e il 65% della popolazione europea sarà dotata di competenze digitali di base (erano il 57% nel 2018).

Una volta che le norme saranno messe nere su bianco, nessuna possibilità di transigere: tutti gli sviluppatori di AI dovranno conformarsi.

Una linea che vale anche per i dati. Se da una parte, sostiene Bruxelles, le aziende hanno bisogno di “spazi per condividere i dati e innovare”, tutto deve essere fatto “a condizioni eque”, senza piattaforme che si prendano tutto. La speranza di trovare “una buona strategia condivisa” con le Big Tech per la regolamentazione del web è ancora viva ma, ha avvertito Breton, se il dialogo “non funziona, dovremo mettere regole ex ante”. E la Silicon Valley deve aspettarselo.