(S.A.) Il Parlamento europeo ha approvato con 523 voti a favore, 46 contrari e 49 astenuti, il regolamento sull’Intelligenza Artificiale (AI). Il regolamento non entrerà in vigore prima di maggio 2024, poiché richiederà ulteriori passaggi procedurali, tra cui la traduzione in 24 lingue e la verifica alla conformità con le  normative nazionali.

Queste sono le prime regole al mondo per l’AI: mirano a tutelare i diritti dei lavoratori e dei cittadini, ma aspirano anche a fissare uno standard globale per la regolamentazione di questa tecnologia. 

pesanti sanzioni

Le regole dell’AI Act verranno implementate in fasi distinte. Entro sei mesi saranno introdotti divieti, mentre enti pubblici e privati dovranno valutare rapidamente i rischi dei sistemi che utilizzano. Dopo un anno, le norme si concentreranno sui modelli fondativi, con particolare attenzione alle intelligenze artificiali generative, che dovranno soddisfare rigorosi standard di trasparenza e sicurezza. Queste regole si applicheranno prima della commercializzazione dei prodotti per le AI ad alto impatto, come GPT-4 di OpenAI, mentre per modelli più semplici sarà richiesta la conformità al momento della vendita. Infine, fra due anni, l’AI Act entrerà in vigore completamente, con sanzioni per chi non rispetta le normative che arrivano a 35 milioni di euro e, per le imprese, dall’1,5% al 7% del fatturato globale.

Il commissario al Mercato Interno e al Digitale, Thierry Breton, ha commentato l’importanza della nuova normativa: “Stiamo regolamentando il meno possibile, ma quanto necessario!”. Queste parole riflettono il delicato equilibrio tra la promozione dell’innovazione e la protezione dei diritti umani.

militari esentati

Le nuove norme riguardano tutte le aziende e gli enti pubblici che forniscono o utilizzano sistemi di AI in Europa. Ciò vale anche per chi non ha sede in un paese europeo, a condizione che l’output del sistema sia usato in Ue. La legge obbliga poi anche altri soggetti, come importatori e distributori.

Il regolamento non si applica invece ai sistemi di AI per scopi militari, di difesa o sicurezza nazionale, per finalità di ricerca scientifica e a quelli rilasciati con licenze free e open source. Escluse anche le attività di ricerca, prova e sviluppo dell’AI e l’uso personale non professionale da parte di singoli individui.

polizia predittiva

La legge classifica i sistemi di AI in base al rischio che potrebbe derivare dal loro utilizzo, graduando di conseguenza requisiti e obblighi. Maggiore è il rischio, maggiori sono le misure di protezione imposte dall’AI Act. Sono usi a rischio inaccettabile, e per questo proibiti, i sistemi di polizia predittiva (utilizzo di sistemi di AI da parte delle forze dell’ordine per l’elaborazione di previsioni statistiche di luogo, modalità, tempo, e/o autore di un crimine futuro) e di social scoring (sistema che valuta il comportamento dei cittadini attraverso parametri assegnando un punteggio in base ai loro comportamenti individuali). Vietati il riconoscimento delle emozioni nelle scuole e nei posti di lavoro e lo scraping di immagini facciali da internet per creare banche dati. Vietato anche l’uso di sistemi di identificazione biometrica in tempo reale in spazi accessibili al pubblico, con alcune eccezioni in casi predeterminati e con autorizzazione. 

Sono sistemi ad alto rischio l’AI per gestire il traffico stradale, per controllare gli studenti agli esami o per analizzare i curricula e valutare i candidati.

deep fake

L’AI Act introduce una serie di misure per favorire la conoscibilità e la trasparenza degli algoritmi. Nel caso di chatbot e sistemi che interagiscono con le persone, queste ultime devono sapere di relazionarsi con una macchina. Le immagini, i testi e gli altri output di un’AI generativa devono essere contrassegnati in un formato leggibile dalla macchina e rilevabili come artificiali, così come occorre indicare che i deep fake sono stati creati da un’AI.

Ci sono poi obblighi specifici per i modelli di AI per finalità generali, vale a dire algoritmi addestrati con grandi quantità di dati e in grado di svolgere un’ampia gamma di compiti. Tra questi, la redazione di documentazione tecnica, l’attuazione di politiche per rispettare il diritto d’autore e la pubblicazione di report sui contenuti usati per addestrare l’algoritmo. 

Sul versante della governance, ogni paese avrà un’autorità di controllo nazionale, a cui potranno rivolgersi cittadini e imprese. A livello Ue saranno diversi i soggetti coinvolti, tra cui Commissione, Comitato europeo per l’intelligenza artificiale e Ufficio per l’AI (istituito a fine gennaio). Ci saranno poi un forum consultivo e un gruppo di esperti scientifici indipendenti. 

(nella foto, Thierry Breton, Commissario Ue al Digitale)

LASCIA UN COMMENTO