Il commentatore radiofonico statunitense Mark Walters ha promosso un’azione legale contro un online articolo online che lo accusava di appropriazione indebita. L’informazione falsa era stata generata da ChatGPT e il giornalista non la verificava. La Corte respingeva il ricorso: la diffamazione richiede la consapevolezza di ledere l’altrui reputazione con notizie false.
Un recente caso giudiziario pone all’attenzione del mondo giuridico, e non solo, le tante sfide che scaturiscono dall’uso nelle professioni intellettuali di sistemi di intelligenza artificiale generativa, come ChatGPT.
Mark Walters, un noto commentatore radiofonico statunitense, ha promosso un’azione legale in seguito alla pubblicazione online di un articolo che lo accusava di appropriazione indebita ai danni di una fondazione. La particolarità della vicenda è rappresentata dal fatto che la notizia pubblicata scaturiva da un’informazione falsa generata da ChatGPT, una di quelle che ormai nel linguaggio comune sono definite “allucinazioni dell’IA”, senza però che il giornalista verificasse l’attendibilità della notizia.
Nel respingere il ricorso, la Corte Superiore della Contea di Gwinnett in Georgia afferma alcuni principi importanti sull’utilizzo dell’I.A.
Il primo, forse il più scontato: la diffamazione richiede la consapevolezza di ledere l’altrui reputazione con notizie false. Quindi, per affermare la responsabilità dell’I.A. - o meglio del produttore o fornitore del sistema di I.A. - occorre provare che per addestrare la macchina le siano stati forniti volutamente dati falsi (dolo), o che vi sia stata una condotta negligente nell’attività di addestramento (colpa).
È un punto che si collega strettamente al secondo principio affermato dalla Corte americana: la condotta dolosa o colposa va dimostrata in giudizio.
E ciò, viene da dire, vale per il sistema giudiziario americano come per quello italiano: chi prospetta un fatto illecito deve provarlo.
Sì, ma come?
La domanda è semplice, ma la risposta è molto più complessa.
Perché, in realtà, il tema dell’onere della prova del malfunzionamento dei sistemi di I.A. è cruciale e su di esso saranno chiamati sempre più spesso a confrontarsi avvocati, magistrati e giuristi in generale. Si tratta, infatti, semplificando, di trovare un punto di equilibrio tra la regola generale dell’onere probatorio e l’oggettiva difficoltà, per il cittadino comune, di dimostrare il malfunzionamento di un sistema che si basa sulla elaborazione di migliaia e migliaia di dati, spesso coperti da segreto industriale e non accessibili o comunque difficilmente intellegibili.
E poi c’è il terzo principio. Quello forse più importante perché travalica l’ambito giuridico per assumere una valenza più generale, forse universale, sicuramente sociale.
Chi utilizza l’I.A., specialmente se è un professionista, deve farlo con prudenza.
L’I.A. non è un oracolo.
O meglio, funziona in maniera molto simile a un oracolo, fornendo risposte senza esplicitare la logica che ne è alla base, ma il tempo che abitiamo non è più quello degli oracoli. O almeno si spera.
Le risposte fornite dall’I.A. devono essere soppesate, valutate, verificate, prima di essere trasfuse in un articolo di giornale, o in un atto giudiziario o in una qualunque altra opera che sia frutto di un’attività intellettuale. Tant’è che, secondo la Corte americana, l’assenza di responsabilità del fornitore del sistema di I.A. deriva anche dal fatto che aveva messo ben in evidenza, sotto forma di disclaimer, la necessità per l’utente di vagliarne le risposte.
A leggere del caso americano torna in mente una vicenda giudiziaria di pochi mesi fa, accaduta in Italia, anch’essa salita alla ribalta della cronaca: il Tribunale di Firenze, con ordinanza del 14 marzo 2025, riteneva irrilevanti ai fini della valutazione della condotta processuale i riferimenti contenuti in un atto giudiziario a precedenti giurisprudenziali risultati inesistenti perché frutto, proprio come nel caso esaminato dalla Corte americana, di allucinazioni dell’I.A.
In questo, le due vicende appaiono legate da un filo comune: il rischio che l’utilizzo dell’I.A. porti a forme di deresponsabilizzazione.
Ma l’I.A. è uno strumento dell’uomo, non un suo sostituto.
E del suo utilizzo, sia esso volutamente illegittimo o comunque superficiale, non potrà che rispondere l’uomo.
*Luigi Viola è avvocato e co-founder GiuriMatriX), Luca Caputo è un magistrato
© Riproduzione riservata