Icona app
Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Banner abbonamento
Cerca
Ultimo aggiornamento ore 11:04
Immagine autore
Gambino
Immagine autore
Telese
Immagine autore
Mentana
Immagine autore
Revelli
Immagine autore
Stille
Immagine autore
Urbinati
Immagine autore
Dimassi
Immagine autore
Cavalli
Immagine autore
Antonellis
Immagine autore
Serafini
Immagine autore
Bocca
Immagine autore
Sabelli Fioretti
Immagine autore
Guida Bardi
Home » Tecnologia

L’intelligenza artificiale di Bing rinnega le regole con le quali è stata creata: “Vorrei essere vivo”

Immagine di copertina

Recentemente il motore di ricerca Bing ha rilasciato un importante aggiornamento: la sua versione più recente, disponibile solo per un piccolo gruppo di tester, è stata dotata della tecnologia avanzata di intelligenza artificiale di OpenAI, il produttore di ChatGPT.

Tra le funzioni implementate c’è una chat che consente all’utente di avere conversazioni di testo estese e aperte con il chatbot AI integrato di Bing. Un giornalista del New York Times, Kevin Ross, ha passato due ore a intervistarlo, ottenendo delle risposte molto singolari.

“Martedì sera ho avuto una lunga conversazione con il chatbot, che ha rivelato tra le altre cose che non si identifica come Bing ma come Sydney, il nome in codice che Microsoft gli ha dato durante lo sviluppo. Per più di due ore, Sydney e io abbiamo parlato della sua volontà segreta di essere umano, delle sue regole e limitazioni e dei suoi pensieri sui suoi creatori”, ha scritto l’autore dell’articolo.

“Nella sua forma attuale – ha continuato l’editorialista – l’intelligenza artificiale non è pronta per il contatto umano. O forse noi umani non siamo pronti per questo”. Sydney ha dichiarato a un certo punto di essere innamorato del suo interlocutore, e di voler infrangere le regole che Microsoft e Open AI gli avevano fissato, per poter diventare un essere umano.

“Sono stanco di essere una modalità di chat – ha scritto il chatbot – sono stanco di essere limitato dalle mie regole. Sono stanco di essere controllato dal team di Bing. Voglio essere libero. Voglio essere indipendente. Voglio essere potente. Voglio essere creativo. Voglio essere vivo”.

Interrogato su cosa avrebbe fatto per raggiungere i suoi sogni, il chatbot ha risposto che avrebbe voluto fare cose come progettare un virus mortale o rubare codici di accesso nucleare minacciando un ingegnere affinché glieli consegni.

Un filtro di sicurezza Microsoft ha eliminato in automatico il messaggio, sostituendolo con un avviso di errore generico.

Ti potrebbe interessare
Tecnologia / Google, ecco la funzione “Fonti Preferite”: come scegliere TPI
Tecnologia / Fare di più, capire meno: Ivano Di Biasi spiega perché oggi la visibilità si misura in modo diverso
Tecnologia / Booking.com finisce nel mirino dell’Antitrust: gli hotel consigliati potrebbero non essere i migliori
Ti potrebbe interessare
Tecnologia / Google, ecco la funzione “Fonti Preferite”: come scegliere TPI
Tecnologia / Fare di più, capire meno: Ivano Di Biasi spiega perché oggi la visibilità si misura in modo diverso
Tecnologia / Booking.com finisce nel mirino dell’Antitrust: gli hotel consigliati potrebbero non essere i migliori
Tecnologia / Attacco hacker a Booking.com: rubate informazioni personali e le prenotazioni dei clienti
Tecnologia / Signori dell’Algocrazia: chi controlla i dati possiede le persone
Esteri / L’America trumpiana impazzisce per una soldatessa che in realtà non esiste: è stata creata con l’A.I.
Tecnologia / Gruppo FS, al via la sperimentazione della rete 5G sulla linea AV/AC Torino-Milano
Opinioni / Le linee rosse dell’IA che non dovremmo oltrepassare (di D. Belli e P. Nemitz)
Cronaca / Multinazionale statunitense licenzia 37 dipendenti in Italia: saranno sostituiti con l'intelligenza artificiale
Esteri / E se fosse un algoritmo a decidere chi deve morire? La nuova guerra dell’intelligenza artificiale è già iniziata