“Questo libro è soprattutto una canzone d’amore per un paese di contraddizioni, martoriato, devastato dalla guerra, diviso, fuorviante e miracoloso. Un’Italia dove la vita è costume e performance artistica, e dove i circhi sorgono su terreni desolati”. Così si legge in una recensione del britannico Guardian del best-seller francese “Watching Over Her” di Jean-Baptiste Andrea, pubblicata ad agosto 2025. Sei mesi dopo, gennaio 2026, il New York Times propone un articolo sullo stesso libro: “Una canzone d’amore per un paese di contraddizioni, martoriato, devastato dalla guerra, diviso, fuorviante e miracoloso: un’Italia dove la vita è costume e performance artistica, e dove i circhi sorgono su terreni desolati”.
stessi concetti
Praticamente, le stesse parole e gli stessi concetti. A tal punto che un solerte lettore di entrambi i quotidiani nota la somiglianza e la segnala al New York Times, che avvia un’indagine interna e il 30 marzo scopre l’inghippo: per scrivere la sua recensione, il collaboratore freelance Alex Preston ha utilizzato l’intelligenza artificiale, la quale, evidentemente, ha attinto a sua volta al testo del Guardian, autore Christobel Kent. In un altro passaggio di entrambe le recensioni, il personaggio di Stefano viene descritto come “pigro e machiavellico”.
rapporto interrotto
Il risultato è stato immediato: il giornale statunitense ha interrotto ogni rapporto con il giornalista Preston, mentre la direzione ha inviato una lettera al Guardian con una nota dell’editore: “Un lettore ha recentemente segnalato al Times che questa recensione includeva linguaggio e dettagli simili a quelli di una recensione dello stesso libro pubblicata sul Guardian. Abbiamo parlato con l’autore di questo pezzo, un recensore freelance, che ci ha detto di aver usato uno strumento di AI che ha incorporato materiale dalla recensione del Guardian nella sua bozza, che lui non è riuscito a identificare e rimuovere. Il suo utilizzo dall’AI e l’uso di lavoro non attribuito di un altro redattore sono una chiara violazione degli standard del Times”.
“imbarazzato e dispiaciuto”
“Sono enormemente imbarazzato da quanto accaduto e realmente dispiaciuto”, ha detto Preston in una dichiarazione al Guardian di martedì 31 marzo: “Ho commesso un grave errore usando uno strumento di AI su una bozza di recensione che avevo scritto, e non sono riuscito a identificare e rimuovere il linguaggio sovrapposto di un’altra recensione che l’AI ha inserito. Ho assunto immediatamente la responsabilità e mi sono scusato con il New York Times, e voglio anche scusarmi con Christobel Kent e con il Guardian”.
Tra il 2021 e il 2026 Preston ha firmato sei recensioni per il New York Times, ma ha assicurato di “non aver mai usato l’AI per nessuno dei suoi articoli precedenti”.
sei libri
Come riporta lo stesso Guardian, Alex Preston è un autore stimato e prolifico. Ha scritto diffusamente per l’Observer e il Financial Times, oltre a contribuire allo stesso Guardian e all’Economist. È autore di sei libri, l’ultimo dei quali, “A Stranger in Corfu”, è uscito a febbraio. Inoltre, è capo del servizio di consulenza della società di gestione patrimoniale Man Group. A gennaio, ha scritto un articolo per il sito di Man Group intitolato “La Bolla AI: Rischi nascosti e opportunità”.
La vicenda conferma non solo il crescente -e preoccupante- utilizzo dell’Intelligenza artificiale in tutti gli ambiti del giornalismo, ma anche il fatto che l’AI, alla fine, non “inventa nulla”: attinge da altri prodotti umani e li rielabora, realizzando una sorta di plagio di massa. Se lo strumento può essere utilissimo per attività di fact checking e per cercare dati e informazioni, nel caso dei contenuti puramente autoriali e creativi, come appunto una recensione, il suo utilizzo non può che contraddire l’etica e la deontologia.





