L'intelligenza artificiale (Ia) sta rivoluzionando il mondo dei media e dei giornali in particolare. Molte redazioni stanno adottando l'Ia per automatizzare processi come la scrittura automatica di articoli, la generazione di titoli e l'analisi dei dati per la pianificazione delle notizie.

Tuttavia, l'uso dell'Ia nelle redazioni dei giornali solleva importanti questioni etiche e giuridiche che devono essere affrontate attraverso una chiara policy sull'uso dell'Ia.

L’attacco di questo articolo – che non è proprio un capolavoro, ma rispetta comunque tutte le regole base del giornalismo – ha la particolarità di essere stato generato da ChatGpt. Ed è solo una parte di 2.800 battute che forse avrebbero potuto essere copiate e incollate senza troppe modifiche, facendolo passare come un nostro contributo. Chi se ne sarebbe accorto?

Il dibattito

La questione, in effetti, è di grandissima attualità e non riguarda più soltanto il futuro di certi professioni e la questione se noi giornalisti umani diventeremo inutili retaggi del passato. Riguarda più l’aspetto etico del giornalismo, la deontologia e come ci sia il rischio che certe notizie false abbiano più visibilità.

Il dibattito fra gli addetti ai lavori è già diffuso da tempo, ma sta assumendo ancora più visibilità adesso, con i nuovi strumenti a disposizione della massa (e delle redazioni).

Nei giorni scorsi hanno avuto grande diffusione le immagini dell’arresto di Donald Trump e quelle di papa Francesco vestito con un piumino bianco. Tutte finte, ovviamente, ma generate con un sistema di intelligenza artificiale (Midjourney) che dà risultati impressionanti.

È giusto che i giornali rilancino quelle foto, anche solo per smentirle? O così contribuiscono alla confusione che l’intelligenza artificiale potrebbe generare nei lettori più distratti? In altre parole: le immagini false dovrebbero avere un “disclaimer” evidente, come succede per le notizie false? O non dovrebbero proprio essere usate dai professionisti dell’informazione?

Il patto con i lettori 

La versione americana di Wired ha scelto di prendere posizione e di scrivere una policy sull’uso dell’intelligenza artificiale in redazione. È qualcosa di molto simile a quell’insieme di regole che vengono scritte per il rispetto della privacy degli utenti. Ma in questo caso assume un valore simbolico ancora più forte: è l’idea di stringere un nuovo patto con i lettori, che tenga conto dei confini etici di certi strumenti.

«Vogliamo essere in prima linea nell’uso di nuove tecnologie, ma anche farlo in maniera etica e con una certa attenzione», scrive Wired. «Non pubblichiamo storie con testo generato dall’intelligenza artificiale, tranne quando è proprio il fatto che sia generato dall’intelligenza artificiale il fulcro della storia. (In questo caso ne dichiariamo l’uso e ne segnaleremo gli eventuali errori)».

Esperimenti

Ovviamente l’intelligenza artificiale può diventare uno strumento utile anche a supporto del giornalismo. Qualche tempo fa, Stefano Cipolla, art director dell’Espresso, aveva ad esempio ospitato sul suo sito il contributo di Adriano Attus. Anche lui è un art director di Plus24, l’allegato settimanale del Sole 24 Ore. A metà strada fra esperimento e provocazione, aveva usato l’intelligenza artificiale per illustrare una delle storie raccontate sul giornale.

Però ora la discussione non è più confinata ai soli esperimenti e alla creatività degli art director. Sono gli stessi giornalisti a doversi interrogare sull’utilizzo di certi strumenti. E nei giorni scorsi il dibattito è arrivato anche in Italia.

La via italiana

Fra i primi a scriverne è stato Alberto Puliafito, fra i fondatori di Slow News (un progetto digitale che si dà come missione quella di fare giornalismo "lento” e di qualità). Con la sua redazione, ha scritto una policy simile a quella di Wired. E ha condiviso un documento aperto, dove gli interessati possono lasciare il loro commento.

Nelle scorse ore, sono arrivate le prime adesioni. La policy di Slow News è stata condivisa su Facebook da Mario Tedeschini-Lalli, fra le massime autorità di giornalismo digitale in Italia (è stato fra i fondatori della presenza digitale di Repubblica, sul finire degli anni Novanta). 

Paolo Cagnan, condirettore del Mattino di Padova e di altri giornali locali del triveneto, ha scritto che sta lavorando ad alcune linee di guida interne e a un «patto di trasparenza» con i lettori.

«Le immagini prodotte con l'intelligenza artificiale, specie dopo la versione 5 di Midjourney, stanno creando il solito cortocircuito ipocrita nei giornali che oggi hanno a che fare con l’intelligenza artificiale», scrive Ciro Pellegrino di Fanpage su LinkedIn. «Probabilmente occorre una revisione delle regole deontologiche dei giornalisti rispetto all’intelligenza artificiale». Il dibattito è aperto ed è probabile che nei prossimi giorni arriveranno altre prese di posizione.

Cosa fare

Ogni “nuova tecnologia” (scritto fra virgolette, perché in fondo l’intelligenza artificiale non è affatto una novità) porta con sé dibattiti come questo, in cui si alternano entusiasmi e diffidenze, talvolta polarizzando il discorso fra opposte tifoserie. Il punto non è bandire l’intelligenza artificiale dai giornali, visto che esperimenti interessanti sono già stati fatti in alcune redazioni. I giornali hanno anzi la grande occasione di rispondere a un bisogno di spiegazione e analisi del fenomeno, che sembra diffuso fra i lettori.

Il Financial Times, come ricorda anche Francesco Oggiano nella sua newsletter sul giornalismo digitale, è stato ad esempio il primo giornale al mondo a individuare la figura dell’artificial intelligence editor.

La questione riguarda più in generale il futuro della professione. I giornali hanno la possibilità di rinnovare il patto con la loro comunità di riferimento, mentre la disinformazione acquista nuove armi e si appresta a esplorare nuove frontiere (come, appunto, quella delle immagini, dei video e degli audio falsi).

Lo si può fare con nuove policy, che mettano nero su bianco le regole del gioco. O semplicemente cercando di fare bene il proprio lavoro ogni giorno, senza cedere alla tentazione di scorciatoie artificiali. Facendo giornalismo come andrebbe sempre fatto: con la ricerca maniacale della verità e con l’ammissione e la correzione degli errori che, inevitabilmente, capiteranno.

Se vuoi partecipare al dibattito su cosa dovrebbero fare i giornali con l’intelligenza artificiale, puoi scrivere a lettori@editorialedomani.it

© Riproduzione riservata