ChatGpt finisce sotto accusa in un caso d’omicidio: il procuratore generale della Florida James Uthmeier, infatti, ha annunciato di aver aperto un’indagine penale su OpenAI e sul chatbot sviluppato dall’azienda, ChatGpt, in relazione alla sparatoria avvenuta alla Florida State University, a Tallahasse. La vicenda risale ad aprile 2025 quando lo studente di vent’anni, Phoenix Ikner, è entrato nella sua università armato di pistola uccidendo due persone e ferendone altre sei. Il ragazzo, attualmente in carcere con l’accusa di omicidio e tentato omicidio, sarebbe stato “istruito” dall’intelligenza artificiale su quando, dove e come colpire.
“Se dall’altra parte dello schermo ci fosse stata una persona, la incrimineremmo per omicidio” ha spiegato il procuratore, secondo cui il chatbot ha consigliato all’omicida “che tipo di arma usare, quale munizione inserire in quale arma e se sarebbe stata più utile un’arma a corto raggio”. L’intelligenza artificiale avrebbe anche “informato il tiratore su quale ora della giornata sarebbe stata migliore per compiere la sparatoria in modo da riuscire a intercettare più persone e su dove nel campus avrebbe incontrato più vittime”. L’obiettivo dell’indagine è quella di capire se ci sia una responsabilità umana e se coloro che lavorano a ChatGpt “possano essere stati coinvolti nella progettazione, nella gestione e nel funzionamento” del chatbot al punto da poter essere considerati penalmente perseguibili per “l’aiuto” che hanno fornito a Ikner. “ChatGpt ha fornito risposte fattuali a domande con informazioni che potevano essere trovate ampiamente in fonti pubbliche su Internet, e non ha incoraggiato né promosso attività illegali o dannose” ha dichiarato OpenAI, che ha aggiunto: “È stata una tragedia, ma ChatGpt non è responsabile di questo terribile crimine”.