di CHIARA VENUTO

“Lo sviluppo dell’intelligenza artificiale può essere paragonato all’avvento della stampa”: è questa la risposta di Sam Altman, l’amministratore delegato di OpenAI (creatore di ChatGPT), alla provocazione di un senatore americano. Il politico gli aveva chiesto se la creazione dell’IA fosse più simile all’invenzione della stampa o a quella della bomba atomica. Una risposta assicurante, si potrebbe dire. Ma non è esattamente così.

Proprio Altman, nel corso dell’udienza al senato Usa del 16 maggio, ha detto che l’intelligenza artificiale può essere pericolosa. Un’affermazione che arriva dopo mesi di polemiche proprio su questo tema e la più recente notizia dell’addio del “padrino” dell’intelligenza artificiale Geoffrey Hinton a Google. Il motivo di Hinton? La voglia di informare sui rischi di una tecnologia di questo tipo.

disinformazione personalizzata

La scelta di parole di Altman, trentottenne, sembra proprio rispondere alle preoccupazioni dell’ex dipendente di Google, che di anni ne ha invece 75. “Penso che se questa tecnologia va storta, può andare completamente storta – ha spiegato ai senatori – Vogliamo lavorare con il governo per evitare che ciò avvenga”. L’intervento normativo, per l’ad di OpenAI, sarebbe necessario per permettere che lo sviluppo dell’intelligenza artificiale avvenga in modo sicuro e non crei dei “mostri”. Ad esempio, ricorda Altman, c’è il rischio di ricevere sempre più disinformazione personalizzata nel corso delle elezioni, il che può avere un forte impatto sul giornalismo e sul sistema democratico in generale.

Inoltre, ha spiegato l’ad di OpenAI, i governi dovranno pensare a interventi per mitigare “l’impatto sul mercato del lavoro”: secondo l’informatico ci saranno meno posti di lavoro a causa dell’intelligenza artificiale.

licenze e regole

Insieme ad Altman all’udienza c’erano anche Christina Montgomery, la chief privacy & trust officer di IBM, e Gary Marcus, che è un professore emerito della New York University, entrambi d’accordo con lui. In particolare, si sono detti preoccupati per quanto riguarda la disinformazione (con specifico riferimento a quella in ambito sanitario), la manipolazione politica e la realizzazione di pubblicità sempre più “cucite” sul singolo. Tutti insieme hanno chiesto al governo americano di creare un’organizzazione speciale per supervisionare l’intelligenza artificiale, che si occupi del rilascio di licenze a chi rispetta le regole (con la possibilità di toglierle a chi non lo fa).

Durante il vertice di questi giorni del Consiglio d’Europa a Reykjavik si è parlato proprio di intelligenza artificiale. I governi “riconoscono l’impatto positivo e le opportunità create dalle tecnologie digitali nuove ed emergenti”, ma – proprio seguendo l’esempio di Altman – “riconoscono anche la necessità di mitigare i rischi di conseguenze negative del loro uso sui diritti umani, sulla democrazia e sullo stato di diritto”, si legge nella dichiarazione finale dell’incontro. Per fare tutto questo, il Consiglio sta redigendo una convenzione quadro sull’IA, così da normarla in modo definitivo.

poco preparati

Un’idea che pare non dispiaccia troppo a chi vive in Italia. Secondo un sondaggio di YouTrend per la Fondazione Pensiero Solido, il 59% degli italiani è d’accordo con l’idea di intervenire per regolamentare i sistemi di intelligenza artificiale. Per essere però in grado di muoversi nel mondo di queste tecnologie è necessario andare ben oltre la legislazione. Il 54% degli italiani si è detto poco o per nulla preparato sul tema dell’IA. Manca quindi un’alfabetizzazione che renda possibile comprendere come funziona materialmente un computer che formula ragionamenti simili a quelli di un essere umano.

A non mancare, invece, è la percezione che diminuiranno i posti di lavoro. Lo pensa il 51% degli intervistati che, dunque, si trovano d’accordo proprio con Altman.

(nella foto, Geoffrey Hinton)

LASCIA UN COMMENTO