Al suo segnale scateneranno l’inferno. Lo studio legale che rappresenta Luca Ward, voce italiana del Gladiatore, da inizio febbraio aspetta solo il segnale di Massimo Decimo Meridio per scagliarsi contro gli usi impropri della voce e dell’immagine dell’attore romano, che ha così depositato il suo marchio sonoro per difendersi dall’intelligenza artificiale generativa.

«Ho brevettato la mia voce e la mia immagine. Basta una fotografia e una frase: “Io sono Luca Ward”. Ora c’è il copyright», racconta a Domani. «La mia voce è già assicurata se la perdo o se si rovina, ora posso agire contro ogni riproduzione non autorizzata».

Così Ward è il primo doppiatore italiano a brevettarsi, un’esigenza che arriva dalla preoccupazione che le sue fattezze vengano clonate con l’Ia e utilizzate impropriamente da case di produzione e su Internet. Una circostanza che, in generale, «comincia ad accadere un po’ troppo spesso», spiega, raccontando di essere stato ispirato in questa scelta dalla lotta dei colleghi statunitensi. Il riferimento è all’anno del famoso doppio sciopero di Hollywood, mentre a metà gennaio 2026, a depositare il proprio brand personale è stato l’attore di True Detective e Interstellar, Matthew McConaughey.

«Ho seguito molto la battaglia degli attori e sceneggiatori statunitensi. Se non facciamo qualcosa per proteggerci dall’intelligenza artificiale sarà un casino, salteranno posti di lavoro». Questa è una tecnologia che «mi preoccupa», confessa Ward. «I media la presentano come la grande opportunità del secolo, io credo ci sia la fregatura. Quindi stiamo attenti».

“Training right”

A ben vedere infatti bastano pochi clic e la traccia è fatta. Con gli strumenti gratuiti di intelligenza artificiale generativa ormai è quasi un gioco da ragazzi campionare voci e far dire loro qualunque cosa. Lo stesso discorso vale anche per le immagini, i deepfake sono sempre più precisi, e nel ciclo dei contenuti diffusi in rete a volte è davvero difficile distinguere ciò che è vero da ciò che è falso.

In Italia, i doppiatori sono stati tra i primi a porre l’accento sulla minaccia dell’Ia nel settore audiovisivo. A dicembre 2023, al rinnovo del loro Ccnl, insieme alla parte datoriale hanno inserito una clausola in cui, sostanzialmente, viene definito una sorta di “diritto di addestramento”, cioè “training right”, per il machine learning. In altre parole: se una major vuole usare la voce di un artista per allenare il proprio algoritmo, deve chiedere il permesso.

Secondo Anad, l’Associazione nazionale attori e doppiatori, «quello dei brevetti è un mercato molto tutelato, la scelta di Ward apre un’altra strada interessante per proteggerci dai deepfake», commenta a Domani il presidente Daniele Giuliani, voce di Kit Harington nel Trono di spade.

Protezione che in Italia, di fatto, c’è già con la norma “anti-deepfake” entrata in vigore a ottobre scorso. «Servono però strumenti per mettere in pratica questa legge. La capacità di riconoscere una voce, ad esempio. Anche se rimaneggiata è comunque stata generata dalla mia, senza consenso. Ci vuole un fonico forense? C’è uno strumento certificato dallo Stato? Questo è un punto fondamentale».

Una questione di qualità

L’Italia è stata tra i primi paesi in Europa a introdurre una norma su questo tema, riconoscendo come definizione di deepfake quella dell’AI Act europeo: cioè «un’immagine o contenuto audio o video generato o manipolato dall’intelligenza artificiale che assomiglia a persone, oggetti luoghi o altre entità o eventi esistenti e che apparirebbe falsamente autentico o veritiero a una persona».

Ma oltre che di privacy e tecnologico, quello dell’Ia è anche un discorso di pubblico. Quando l’anno scorso su Prime Video sono usciti doppiaggi inglesi di tre serie anime (Vinland Saga, Banana Fish e No Game No Life: Zero) realizzati in via «sperimentale» con l’Ia, su internet i fan sono insorti per la qualità scandente del risultato, e i contenuti prontamente rimossi. «La sensibilità sarà decisiva, se al pubblico va bene tutto allora c’è poco da discutere. Il doppiaggio non lo facciamo per noi stessi. Attualmente la risposta mi pare chiara», sostiene Flavio Acquilone, voce di Tom Felton in Harry Potter e di Rami Malek in Mr.Robot.

«L’Ia andrà a impattare sul nostro lavoro in modi che ancora non immaginiamo. Il doppiaggio come lo concepiamo noi però non verrà sostituito al cento per cento, forse alcune produzioni che non richiedono un’interpretazione specifica, che è comunque un danno». Insomma, alcuni rischi ci sono, e la prospettiva futura più verosimile è di «prodotti di “serie a” doppiati da attori e di “serie b” realizzati da algoritmi».

«L’unico modo che abbiamo è di fare il nostro lavoro con cura artistica, professionalità e qualità, rispettando tempi di lavorazione e maestranze», spiega invece Chiara Gioncardi, voce di Scarlett Johansson in Asteroid City e La trama fenicia.

«La mia preoccupazione? L’omologazione e l’appiattimento del gusto artistico. È un rischio concreto», continua la doppiatrice. «Perché la macchina dovrebbe avere più valore della voce umana? La nostra voce trasmette emozioni ed errori, che sono importanti. Non siamo e non vogliamo essere macchine perfette». E conclude: «E se un giorno l’Ia permettesse all’attore hollywoodiano di recitare in tutte le lingue del mondo? Magari con piccole modifiche al labiale, là sarebbe un problema. In tal caso spero siano loro i primi a ribellarsi. Tutto ciò a che pro? Solo questione economica, non ha nulla a che fare con l’arte».

© Riproduzione riservata