Veterani di guerra, politici e anche tutti noi: i fatti inventati da ChatGpt e i suoi fratelli sfociano a volte nella diffamazione e sono un pericoloso limite all’utilizzo dei large language model
Lo scorso 2 aprile, l’Organizzazione mondiale della sanità ha lanciato il chatbot Sarah, basato sul large language model Gpt 3.5 di OpenAI (impiegato anche da ChatGpt). Lo scopo di Sarah – acronimo che sta per Smart AI Resource Assistant for Health – è di fornire consigli in otto diverse lingue su alimentazione, fumo, salute mentale, attività fisica e altro ancora. Come prevedibile, nel giro di poche settimane hanno iniziato a moltiplicarsi le testimonianze relative ai pessimi consigli ricevuti



