di STEFANO AVANZI

Una ricerca di Apo (Analysys & Policy Observatory, fondata in Australia) ha evidenziato che il 98% del pubblico intervistato ritiene necessarie precise regole sull’uso dell’intelligenza artificiale da parte delle organizzazioni giornalistiche. Tuttavia, solo il 25% degli intervistati è sicuro di aver incontrato contenuti informativi prodotti o modificati da AI, mentre un altro 25% è certo del contrario. Il restante 50% dichiara di non sapere se tali contenuti siano già entrati nella propria dieta informativa. E’ ormai impossibile ignorare l’impatto dell’intelligenza artificiale nel giornalismo.

Nel 2023, le principali testate internazionali hanno cominciato a implementare policy pubbliche sull’intelligenza artificiale. Al contrario, molte realtà editoriali minori non si sono ancora dotate di linee guida specifiche. Alcuni redattori ritengono che le dimensioni ridotte delle loro strutture permettano un controllo sufficiente, senza bisogno di formalizzazioni. Tuttavia, l’adozione di strumenti editoriali con funzionalità AI integrate, come software di trascrizione, editing video o suggerimento titoli, rende sempre più difficile monitorare l’uso effettivo degli algoritmi, anche nei piccoli team. Inoltre, le testate spesso ripubblicano contenuti di terzi o materiali provenienti dal pubblico (crowdsourcing), la cui origine -e il potenziale intervento dell’AI- non è verificabile.

aspettative e desideri

La ricerca ha anche raccolto aspettative e desideri del pubblico rispetto all’intelligenza artificiale nel giornalismo. Il tema dominante è la trasparenza. I lettori vogliono sapere se e come l’AI sia stata utilizzata nella creazione o nella modifica di un contenuto. In particolare, chiedono che le informazioni siano visibili direttamente nell’articolo, sempre nella stessa posizione, evitando riferimenti in note o didascalie. La preferenza è per etichette chiare, integrate nel layout delle notizie, e per la dichiarazione esplicita della proporzione di contenuto umano vs algoritmo. In alcuni casi, si suggerisce l’adozione di un simbolo standard, valido su tutte le piattaforme informative, per identificare i contenuti generati o modificati da intelligenza artificiale.

Tra le proposte raccolte, anche l’idea di un sistema di trasparenza on-demand, che permetta, passando con il cursore o il dito sul testo, di visualizzare una finestra con le informazioni sull’intervento dell’AI. In parallelo, emerge un’attenzione crescente al ruolo del controllo umano: molti lettori si aspettano che i giornalisti verifichino, modifichino o approvino i contenuti AI prima della pubblicazione, soprattutto in ambiti sensibili come cronaca, politica o inchieste.

algoritmi diEtro le quinte

Un dato rilevante riguarda il grado di accettazione dell’AI a seconda degli usi. Il pubblico è generalmente più favorevole all’impiego di algoritmi dietro le quinte — ad esempio per la correzione di bozze, la generazione di descrizioni alt-text o la sfocatura dello sfondo nelle immagini — rispetto alla produzione di contenuti destinati direttamente ai lettori. Il livello di comfort cala drasticamente quando si parla di presentatori virtuali, immagini foto realistiche o testi riferiti al presente. Maggiore accettazione si registra, invece, per illustrazioni non foto realistiche e per ricostruzioni storiche o futuristiche.

Il pubblico distingue anche tra strumenti AI che ha già avuto modo di sperimentare — e che quindi considera più familiari e affidabili — e quelli ancora sconosciuti. Questo suggerisce che la familiarità tecnologica giochi un ruolo cruciale nell’accettazione dell’intelligenza artificiale. In parallelo, il 20% degli intervistati si dichiara contrario a un uso estensivo dell’AI, esprimendo preoccupazione per l’erosione dei posti di lavoro, la riduzione della qualità dell’informazione, l’incremento del sensazionalismo e la perdita di fiducia nei media. Alcuni segnalano anche timori legati a bias algoritmici, violazioni del copyright, rischi per la privacy e impatto ambientale.

uguali per tutti

Il pubblico chiede che l’uso dell’AI non sostituisca il pensiero critico giornalistico, ma lo integri in modo responsabile. Alcuni intervistati propongono che solo i giornalisti formati possano accedere agli strumenti di AI, chiedono sanzioni per gli usi impropri e invitano a sviluppare linee guida specifiche per ogni ambito tematico, escludendo ad esempio l’uso di AI in campagna elettorale. Un altro tema emerso è la necessità di coerenza normativa: molti ritengono difficile seguire policy diverse per ogni testata e propongono standard di settore, da definire in ambito associativo o istituzionale.

Infine, la ricerca evidenzia come l’adozione di policy AI dovrebbe tenere conto del livello di alfabetizzazione tecnologica del pubblico, della sua percezione di fiducia, del contesto culturale e dell’evoluzione normativa e tecnologica. In gioco non c’è solo il modo in cui l’informazione viene prodotta, ma anche come viene percepita e compresa. Il percorso verso una regolamentazione condivisa dell’intelligenza artificiale nel giornalismo resta aperto, ma il messaggio del pubblico è chiaro: servono chiarezza, supervisione umana e aggiornamenti continui, per mantenere alta la credibilità dell’informazione.

LASCIA UN COMMENTO