Tecnologia

Non basta un algoritmo per fare di  un robot un giornalista

Gpt-3 ha scritto un editoriale per il Guardian in cui ha spiegato perché non dovremmo avere paura di lui. Ma il robot ideato da Elon Musk ha un problema: non capisce quello che scrive

  • Da anni esistono e sono utilizzati software in grado di scrivere semplici articoli di sport, meteo o finanza. Ma Gpt-3 ha dimostrato di saper scrivere codici per software, ideare titoli virali, commentare in maniera coerente i testi letti e molto altro ancora.
  • Per imparare a replicare il linguaggio umano, Gpt-3 ha ricevuto in pasto una marea di testi digitali, dai quali erano però state rimosse alcune parti. Gli sviluppatori hanno quindi chiesto all’algoritmo di riempire la parte mancante in maniera coerente, pescando dal dataset contenente le soluzioni.
  • Il filosofo John Searle ha detto che le macchine potrebbero pensare a livello umano solo se la loro configurazione materiale raggiungesse un livello di complessità equivalente a quella del nostro cervello.

Le macchine possono pensare? Per decenni, la celebre domanda posta da Alan Turing nel 1950 ha ricevuto sempre la stessa risposta: no, non possono. Negli ultimi mesi, questa certezza ha però iniziato a vacillare: cos’altro può essere, se non la dimostrazione di pensiero intelligente, l’articolo redatto per il Guardian da Gpt-3, l’intelligenza artificiale creata da OpenAi, non profit fondata e finanziata da Elon Musk? Specializzato nella riproduzione del linguaggio naturale, Gpt-3 ha scritto un l

Per continuare a leggere questo articolo