Icona app
Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Banner abbonamento
Cerca
Ultimo aggiornamento ore 07:58
Immagine autore
Gambino
Immagine autore
Telese
Immagine autore
Mentana
Immagine autore
Revelli
Immagine autore
Stille
Immagine autore
Urbinati
Immagine autore
Dimassi
Immagine autore
Cavalli
Immagine autore
Antonellis
Immagine autore
Serafini
Immagine autore
Bocca
Immagine autore
Sabelli Fioretti
Immagine autore
Guida Bardi
Home » Tecnologia

Come funziona ChatGPT, da dove prende i dati e come scovare chi “bara” con l’intelligenza artificiale

Immagine di copertina
Credit: Hersson Piratoba

Tutte le avvertenze e i consigli per usare come si deve il programma intelligente più famoso del web

Prima regola: mai fidarsi di ChatGPT. Come tutti i chatbot dotati dell’intelligenza artificiale, il programma di OpenAI simula il modo in cui gli umani si esprimono ma bisogna fare attenzione.

ChatGPT replica spesso alle richieste degli utenti con la risposta più probabile, non sempre con quella corretta. E questo deriva da come è stato sviluppato: la sua versione più recente, GPT-3, è stata addestrata a partire dal 2021 su centinaia di miliardi di parole reperite dagli archivi web Common Crawl, WebText2, Google Books1/2 e Wikipedia.

Il programma quindi non sa ma cerca tra un’infinità di informazioni e poi prova a rispondere. Tuttavia, come spiegato in un recente webinar dell’International Center for Journalists, bisogna essere consapevoli – almeno in questa versione – della propensione di ChatGPT a «riempire il vuoto» in mancanza di dati.

È bene quindi sempre verificare le informazioni. Ma come si fa a riconoscere un testo redatto da un chatbot intelligente? OpenAI ha lanciato a fine gennaio un apposito strumento, che però non è ancora perfettamente efficiente. Un esempio? Abbiamo inserito un testo redatto dal programma (nella versione originale inglese, prima che il bot stesso traducesse le sue parole in italiano) nella piattaforma di OpenAI, che non è stata in grado di riconoscere se l’articolo fosse stato scritto da ChatGPT.

Un altro programma però, GPTZero, ideato da uno studente della Princeton University, ha capito che l’articolo era stato redatto da un bot, almeno la prima volta. Esiste infatti un sito, GPT-Minus1, che permette di alterare un testo prodotto da un software intelligente abbastanza da farlo passare per il prodotto di una mente umana. Un test che GPTZero ha puntualmente fallito. Prima regola: non fidarsi.

Ti potrebbe interessare
Tecnologia / Come funziona la telefonata che svuota le carte da remoto: la truffa digitale
Tecnologia / Il traffico dei siti web diminuirà del 43% nei prossimi tre anni a causa dell'AI
Tecnologia / L’Ambasciatore Vignali al WIPO: “I brevetti essenziali per standard al centro della trasformazione digitale”
Ti potrebbe interessare
Tecnologia / Come funziona la telefonata che svuota le carte da remoto: la truffa digitale
Tecnologia / Il traffico dei siti web diminuirà del 43% nei prossimi tre anni a causa dell'AI
Tecnologia / L’Ambasciatore Vignali al WIPO: “I brevetti essenziali per standard al centro della trasformazione digitale”
Tecnologia / Basta un click e ti svuotano il conto: scatta l’allarme per una nuova truffa, ecco il messaggio da ignorare
Tecnologia / Attenzione alle mail per aggiornare lo SPID: nuova truffa, cosa non fare
Tecnologia / WhatsApp: come recuperare chat e messaggi cancellati
Economia / Intelligenza Artificiale, la classifica dei lavori che più rischiano di scomparire
Sociale / Invecchiare a casa propria: quando la tecnologia diventa un diritto
Tecnologia / Il futuro che nessuna intelligenza artificiale potrà mai scrivere
Tecnologia / Alec Ross a TPI: “La guerra somiglia ai videogiochi e sarà sempre più algoritmica”