La Politica contro la Tecnica. Negli ultimi decenni ha vinto la seconda.

L’ultima sfida è sull’Intelligenza artificiale. Il 14 giugno scorso, il Parlamento europeo ha approvato una proposta per regolamentarla, l’AI Act. Prevede, fra l’altro, che venga sempre dichiarato se un contenuto proviene dall’Intelligenza artificiale. Prevede, fra l’altro, la tutela del diritto d’autore sui dati utilizzati da AI. Il problema è che la velocità della Tecnica, abituata a travolgere ogni ostacolo si trovi davanti, e la velocità della Politica sono enormemente diverse. Il regolamento Ue procede ora attraverso i negoziati con la Commissione europea e il Consiglio. L’ipotesi è che questo regolamento avrà un impatto significativo sullo sviluppo e sull’uso dell’Intelligenza artificiale in un arco di 3-4 anni. Nel frattempo, la tecnologia viene già utilizzata, con possibili danni nei confronti dei cittadini-consumatori.

protezione dei dati

Ad esempio, Adiconsum, assieme ad altre 15 organizzazioni dei consumatori in altrettanti paesi europei, chiede che: 

1) fino a quando la legge sull’IA dell’UE non sarà applicabile, le Autorità devono indagare per scoprire eventuali danni generati e applicare la legislazione in materia di protezione dei dati, di sicurezza e protezione dei consumatori.

2) le aziende high-tech devono rispettare le normative esistenti dell’Ue.

3) le agenzie preposte devono vigilare sulla loro osservanza e comminare sanzioni stringenti in caso di inadempimenti.

sistemi di riconoscimento

Cosa dice la proposta del Parlamento europeo? Innanzitutto intende vietare l’uso dei sistemi di identificazione biometrica nell’Ue, sia “tempo reale” che per l’uso “a posteriori” (tranne nei casi di reati gravi e di previa autorizzazione giudiziaria); tutti i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili; i sistemi di polizia predittiva (basati sulla profilazione, l’ubicazione o il comportamento criminale pregresso); i sistemi di riconoscimento delle emozioni (utilizzati nell’ambito di attività di contrasto, gestione delle frontiere, luoghi di lavoro e istituti di istruzione); e infine i sistemi che utilizzano l’estrazione indiscriminata di dati biometrici dai social media o da filmati di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale.

Attività ad alto rischio -secondo la proposta- sono considerate quelle che possono danneggiare la salute, la sicurezza, i diritti fondamentali delle persone o l’ambiente. Inoltre, sono stati aggiunti anche i sistemi di AI utilizzati per influenzare gli elettori nelle campagne politiche e quelli utilizzati nei sistemi di raccomandazione dei principali social media. 

il fenomeno dei deepfake

Il Parlamento vuole imporre ai fornitori di modelli di base di AI l’obbligo di garantire una solida tutela dei diritti fondamentali. I fornitori di modelli di AI generativa sarebbero soggetti ad obblighi di trasparenza rigorosi, tra cui: rilevare che il contenuto è stato generato dall’AI e non da esseri umani, in modo tale da mitigare il fenomeno dei deepfake; progettare i loro modelli in modo da impedire la generazione di contenuti illegali; pubblicare riepiloghi dei dati con diritti d’autore autorizzati ai fini dell’addestramento.

Ogni Stato Membro dovrebbe designare un’autorità nazionale di controllo sull’AI. Viene istituito un ufficio centrale dell’UE per l’AI, in grado di sostenere l’applicazione armonizzata della legge sull’AI e monitorarne l’attuazione. 

Vengono previste deroghe al regime applicativo della normativa dell’AI Act per tutti quei soggetti che compiono attività di ricerca e sviluppo di componenti di AI liberi e open source.

potenti pressioni

“Dobbiamo garantire che lo sviluppo e l’uso dell’IA generativa siano sicuri, affidabili ed equi. Sfortunatamente, la storia ha dimostrato che non possiamo fidarci delle grandi aziende tecnologiche perché risolvano questo problema da sole”, afferma Find Myrstad, Direttore della politica digitale presso il Norwegian Consumer Council. “È fondamentale che l’Ue renda la legge sull’IA il più solida possibile in termini di protezione dei consumatori dagli usi dannosi di questa tecnologia. Chiediamo alle istituzioni dell’Ue di resistere alle potenti pressioni delle società Big Tech per annacquare le protezioni nella legge futura”, afferma Ursula Pachl, Vicedirettore generale del BEUC, l’Organizzazione europea dei consumatori.

Attraverso i sistemi di IA, possono essere messe in atto pratiche commerciali sleali e forme di geoblocking (blocco di Intenet in alcuni luoghi), violazioni del diritto alla privacy, forti limitazioni della concorrenza, manipolazioni dell’informazione e diffusione di deep fakes, forme illecite di influenza sul pensiero e sulle scelte di acquisto, discriminazioni, violazioni dei diritti dei minori, decisioni errate in danno dei cittadini. 

(nella foto, Bruxelles, edificio Louise Weiss, sede del Parlamento europeo)

LASCIA UN COMMENTO