Stop a ChatGPT finché non rispetterà la disciplina privacy. Il Garante per la protezione dei dati personali ha disposto, con effetto immediato, la limitazione provvisoria del trattamento dei dati degli utenti italiani nei confronti di OpenAI, la società statunitense che ha sviluppato e gestisce la piattaforma. L’Autorità ha contestualmente aperto un’istruttoria.

ChatGPT, il più noto tra i software di intelligenza artificiale relazionale in grado di simulare ed elaborare le conversazioni umane, lo scorso 20 marzo aveva subito una perdita di dati (data breach) riguardanti le conversazioni degli utenti e le informazioni relative al pagamento degli abbonati al servizio a pagamento.

informativa degli utenti

Nel provvedimento, il Garante privacy rileva la mancanza di una informativa agli utenti e a tutti gli interessati i cui dati vengono raccolti da OpenAI, ma soprattutto l’assenza di una base giuridica che giustifichi la raccolta e la conservazione massiccia di dati personali, allo scopo di “addestrare” gli algoritmi sottesi al funzionamento della piattaforma.

Come peraltro testimoniato dalle verifiche effettuate, le informazioni fornite da ChatGPT non sempre corrispondono al dato reale, determinando quindi un trattamento di dati personali inesatto.

Da ultimo, nonostante – secondo i termini pubblicati da OpenAI – il servizio sia rivolto ai maggiori di 13 anni, l’Autorità evidenzia come l’assenza di qualsivoglia filtro per la verifica dell’età degli utenti esponga i minori a risposte assolutamente inidonee rispetto al loro grado di sviluppo e autoconsapevolezza.

venti milioni di euro

OpenAI, che non ha una sede nell’Unione ma ha designato un rappresentante nello Spazio economico europeo, deve comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.

Ha scritto la news letter Charlie del Post: “Tra le moltissime implicazioni e prospettive create dal perfezionamento delle ‘intelligenze artificiali’ nella scrittura, una è la possibilità di produrre infiniti contenuti ‘a partire da’ testi editi protetti da diritto d’autore, ma diversi da quei testi. Aggirando così il rischio di illegalità che attualmente riguarda siti e piattaforme che replicano in parte o del tutto articoli sottratti ai siti originali. Se un altro sito pubblica tal quale un articolo di Massimo Gramellini per il Corriere della Sera , il Corriere della Sera ha gli strumenti legali per ottenerne la rimozione; ma se un altro sito pubblica un riassunto dell’articolo di Massimo Gramellini prodotto da un software, si tratta di un contenuto nuovo e diverso. Solo che ChatGPT e simili questa cosa la possono fare in quantità industriali e potenzialmente infinite, e un sito di riassunti di articoli – una sorta di rassegna stampa totale – potrebbe riempirsi continuamente di centinaia e migliaia di contenuti ‘originali’ a quasi nessun costo. Di questa cosa cominciano a rendersi conto alcune aziende giornalistiche, che stanno cercando di correre ai ripari: e la questione ha qualcosa in comune con il confronto che ha opposto in questi anni – e oppone tuttora – i giornali e Google sull’uso degli ‘snippet’ dei giornali sulle pagine di Google”.

regolare licenza

Dal Wall Street Journal e da Cnn hanno intanto cominciato a protestare per l’utilizzo dei propri contenuti al fine di arricchire l’addestramento di ChatGPT: “Chiunque voglia usare il lavoro dei giornalisti del Wall Street Journal per addestrare l’intelligenza artificiale deve ottenerne regolare licenza da parte di Dow Jones”, dicono da Dow Jones, editore del Wall Street Journal. È stata la stessa ChatGPT, interrogata, a confessare la lista delle sue fonti (anche italiane).

(nella foto, Pasquale Stanzione, presidente dell’Autorità Garante per la Privacy)

LASCIA UN COMMENTO