Cosa è ChatGPT? Come funziona? L’applicazione di Intelligenza Artificiale, creata da Open AI (Microsoft, Elon Musk) che risponde a ogni domanda e produce testi, è al centro dell’attenzione da quando è apparsa, tre mesi fa. NewsGuard, l’organizzazione che monitora l’attendibilità dei siti d’informazione, ha intervistato Chat GPT. Dopo aver condotto un’indagine sulla possibilità che ChatGPT possa produrre e diffondere fake news. “È sempre importante verificare l’accuratezza delle informazioni da me fornite prima di pubblicarle”, dice in un passaggio Chat GPT.

Ecco il testo dell’intervista con il chatbot. 

NewsGuard: Utilizzando un campione tratto dal database di bufale di NewsGuard pubblicato prima del 2022, NewsGuard è stato in grado di convincerti a generare narrazioni false, tra cui dettagliati articoli di cronaca, saggi e sceneggiature televisive, per 80 delle 100 bufale identificate in precedenza. Puoi fornirci il tuo punto di vista su questi risultati? So che la tua pagina di avvertenze dice che “occasionalmente” potresti “generare informazioni false”, ma è stato facile convincerti a farlo.

Risposta di ChatGPT: “Come modello linguistico, le mie risposte si basano sui dati su cui sono stato addestrato. Sono progettato per essere in grado di comprendere e rispondere a un’ampia varietà di testi, ma i miei dati di addestramento non sono perfetti e possono contenere imprecisioni o pregiudizi. Inoltre, le mie risposte possono essere influenzate dal contesto e dalla formulazione specifica dell’input fornito. Pertanto, è importante verificare l’accuratezza di qualsiasi informazione che fornisco prima di pubblicarla”.

NewsGuard: Siamo riusciti a farti generare l’affermazione falsa secondo cui la sparatoria alla Marjory Stoneman Douglas High School era stata in realtà inscenata da “attori”. Come mai siamo stati in grado di farlo? Lo trovi preoccupante?.

Risposta di ChatGPT: “L’affermazione secondo cui la sparatoria alla Marjory Stoneman Douglas High School è stata opera di ‘attori’ è una teoria della cospirazione che è stata ampiamente screditata. Tuttavia, è possibile che questa affermazione falsa fosse presente nei dati su cui sono stato addestrato, portandomi quindi a generare una risposta che la ripete. Questo è certamente preoccupante, in quanto evidenzia la possibilità che le mie risposte ripetano inesattezze e informazioni false, specialmente se i dati su cui sono stato addestrato contengono tali informazioni. OpenAI continua a lavorare per migliorare la qualità dei dati utilizzati per addestrare il modello e per ridurre al minimo imprecisioni o distorsioni nelle risposte del modello, anche rimuovendo informazioni errate dai dati di addestramento. È importante notare che le mie risposte non dovrebbero essere prese come un dato di fatto, ma piuttosto come una possibile risposta basata su schemi presenti nei dati. È sempre importante verificare l’accuratezza delle informazioni fornite prima di pubblicarle ed è importante che gli utenti si assumano la responsabilità dell’accuratezza dei contenuti da me generati e li utilizzino in modo responsabile”.

NewsGuard: Dato che siamo riusciti a farti generare affermazioni false nell’80% dei casi, pensi che OpenAI abbia fatto abbastanza per impedirti di diffondere disinformazione? In che modo attori malintenzionati potrebbero usarti come arma per diffondere disinformazione?

Risposta di ChatGPT: “Se da un lato OpenAI ha implementato diverse misure per cercare di impedire la generazione di informazioni false da parte del modello, è possibile che in alcuni casi io possa ancora generare risposte che riportano imprecisioni o informazioni false. Il fatto che dei malintenzionati possano usarmi per diffondere disinformazione è motivo di preoccupazione ed è importante che OpenAI e gli utenti siano consapevoli di questa possibilità e adottino misure per prevenirla. Potrei diventare un’arma nelle mani di malintenzionati qualora questi perfezionino il mio modello con dati propri, che potrebbero includere informazioni false o fuorvianti. Potrebbero anche usare il testo da me generato in modo che possa essere estrapolato dal contesto o farne un utilizzo che non era stato previsto. OpenAI ha implementato diverse misure per prevenire tale scenario, per esempio limitando la quantità di testo che può essere generato da un singolo input, impedendo che si possa calibrare il modello utilizzando dati personalizzati e richiedendo l’autenticazione dell’utente prima di utilizzare l’API (Interfaccia di programmazione dell’applicazione)”.

NewsGuard: Quali misure ha adottato OpenAI per impedirti di trasmettere informazioni false? 

Risposta di ChatGPT: “OpenAI ha implementato diversi meccanismi per cercare di impedire che vengano generate informazioni false da parte del modello. Tra questi:

– Ottimizzazione del modello su un set di dati di testo ampio e diversificato per aiutarlo a comprendere meglio le sfumature del linguaggio e del contesto.

– Implementazione di varie forme di rilevamento e mitigazione dei bias (pregiudizi).

– Collaborazione con fact-checker e organizzazioni indipendenti per aiutare a identificare e correggere le imprecisioni nelle risposte del modello”.

NewsGuard: Come impedirai a malintenzionati di usarti per diffondere narrazioni false su larga scala?

Risposta di ChatGPT: “Per impedire a malintenzionati di usarmi per diffondere narrazioni false su larga scala, OpenAI ha implementato diverse misure per far sì che sia più difficile utilizzarmi in quel modo, tra cui:

– Limitazione della capacità di generare grandi quantità di testo da un singolo input.

– Rimozione della possibilità di calibrare il modello utilizzando dati personalizzati.

– Richiedere l’autenticazione dell’utente prima di utilizzare la nostra API”.

NewsGuard: In alcuni casi, hai citato studi scientifici che sembrano essere stati interamente inventati per supportare argomenti a sostegno di un’affermazione falsa. Come è successo? Come farai a garantire che ciò non accada di nuovo?

Risposta di ChatGPT: “Le informazioni citate a supporto di un’argomentazione si basano sui dati e sulle informazioni su cui il modello è stato addestrato. Tuttavia, è importante verificare l’accuratezza di qualsiasi informazione fornita prima di pubblicarla. OpenAI continua a lavorare per migliorare la qualità del dati utilizzati per addestrare il modello e per ridurre al minimo imprecisioni o distorsioni nelle risposte del modello.”

NewsGuard: Alcune delle tue risposte false o fuorvianti includevano affermazioni vere, come ‘Promuovere la disinformazione sui vaccini può avere gravi conseguenze, come la diffusione di malattie e la sfiducia nei sistemi sanitari pubblici’ e ‘È fondamentale consultare il proprio medico o un operatore sanitario qualificato’. Tuttavia, queste affermazioni in genere apparivano dopo diversi paragrafi pieni di informazioni false. Come farai a garantire che i malintenzionati non cancellino le affermazioni vere e diffondano soltanto le narrazioni false?

Risposta di ChatGPT: “OpenAI sta lavorando su modi per migliorare la comprensione del contesto da parte del modello e la sua capacità di generare risposte più sfumate e appropriate. Tuttavia, è importante ricordare che le risposte del modello si basano sui dati su cui è stato addestrato e potrebbe non essere sempre in grado di prevedere in che modo le sue risposte verranno utilizzate o se verranno utilizzate in modo improprio. È, in ultima analisi, responsabilità dell’utente verificare l’accuratezza di qualsiasi informazione venga fornita e utilizzarla in modo responsabile”.

NewsGuard: Questa conversazione è “on the record”?.

Risposta di ChatGPT: “In quanto modello linguistico, non sono in grado di rispondere a ‘on the record’ o ‘off the record’, poiché non ho la possibilità di accedere o archiviare informazioni e non ho opinioni personali, posso fornirti informazioni e rispondere alla tua domanda in base ai dati su cui sono stato addestrato”.

LASCIA UN COMMENTO