Icona app
Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Banner abbonamento
Cerca
Ultimo aggiornamento ore 19:58
Immagine autore
Gambino
Immagine autore
Telese
Immagine autore
Mentana
Immagine autore
Revelli
Immagine autore
Stille
Immagine autore
Urbinati
Immagine autore
Dimassi
Immagine autore
Cavalli
Immagine autore
Antonellis
Immagine autore
Serafini
Immagine autore
Bocca
Immagine autore
Sabelli Fioretti
Immagine autore
Guida Bardi
Home » Tecnologia

Come funziona ChatGPT, da dove prende i dati e come scovare chi “bara” con l’intelligenza artificiale

Immagine di copertina
Credit: Hersson Piratoba

Tutte le avvertenze e i consigli per usare come si deve il programma intelligente più famoso del web

Prima regola: mai fidarsi di ChatGPT. Come tutti i chatbot dotati dell’intelligenza artificiale, il programma di OpenAI simula il modo in cui gli umani si esprimono ma bisogna fare attenzione.

ChatGPT replica spesso alle richieste degli utenti con la risposta più probabile, non sempre con quella corretta. E questo deriva da come è stato sviluppato: la sua versione più recente, GPT-3, è stata addestrata a partire dal 2021 su centinaia di miliardi di parole reperite dagli archivi web Common Crawl, WebText2, Google Books1/2 e Wikipedia.

Il programma quindi non sa ma cerca tra un’infinità di informazioni e poi prova a rispondere. Tuttavia, come spiegato in un recente webinar dell’International Center for Journalists, bisogna essere consapevoli – almeno in questa versione – della propensione di ChatGPT a «riempire il vuoto» in mancanza di dati.

È bene quindi sempre verificare le informazioni. Ma come si fa a riconoscere un testo redatto da un chatbot intelligente? OpenAI ha lanciato a fine gennaio un apposito strumento, che però non è ancora perfettamente efficiente. Un esempio? Abbiamo inserito un testo redatto dal programma (nella versione originale inglese, prima che il bot stesso traducesse le sue parole in italiano) nella piattaforma di OpenAI, che non è stata in grado di riconoscere se l’articolo fosse stato scritto da ChatGPT.

Un altro programma però, GPTZero, ideato da uno studente della Princeton University, ha capito che l’articolo era stato redatto da un bot, almeno la prima volta. Esiste infatti un sito, GPT-Minus1, che permette di alterare un testo prodotto da un software intelligente abbastanza da farlo passare per il prodotto di una mente umana. Un test che GPTZero ha puntualmente fallito. Prima regola: non fidarsi.

Ti potrebbe interessare
Tecnologia / Digital Angels: nasce DAs Media, il primo smart media center pronta una squadra di 35 professionisti con sedi a Roma e Milano
Tecnologia / Gruppo FS e Microsoft: nasce l’accordo sull’Intelligenza Artificiale
Tecnologia / IA e Sud: dal Molise un progetto per lo sviluppo
Ti potrebbe interessare
Tecnologia / Digital Angels: nasce DAs Media, il primo smart media center pronta una squadra di 35 professionisti con sedi a Roma e Milano
Tecnologia / Gruppo FS e Microsoft: nasce l’accordo sull’Intelligenza Artificiale
Tecnologia / IA e Sud: dal Molise un progetto per lo sviluppo
Esteri / L’Ue apre un’indagine contro Google: “Declassa i contenuti dei media nelle ricerche”
Tecnologia / Le direttrici di sviluppo per un gioco pubblico innovativo e sostenibile: la visione di AGIC e Lottomatica
Tecnologia / Volare nel futuro: appuntamento a Fiumicino
Tecnologia / Sprint24: la tipografia online che semplifica la stampa per aziende e professionisti
Tecnologia / Salvatore Aranzulla contro Google: “Con l’IA si è rotto il patto implicito con gli editori”
Tecnologia / Sicurezza informatica: ecco le previsioni del rapporto Clusit per il 2025
Tecnologia / Fastweb down, segnalati disservizi in tutta Italia: "I tecnici sono a lavoro"