Me

Un ragazzo di 13 anni si è sparato per errore in diretta su Instagram Live

Malachi Hemphill era collegato in diretta con altri 50 utenti quando ha preso in mano una pistola e l'ha puntata alla tempia. Un gioco che gli è costato la vita

Immagine di copertina

Malachi Hemphill era in diretta su Instagram Live, che permette ai suoi utenti di girare dei brevi filmati, ed era collegato con una cinquantina di amici che quotidianamente lo seguivano sul social network e commentavano i suoi status e le sue foto, quando a un certo punto tra le sue mani è comparsa una pistola. 

Malachi l’ha puntata alla tempia facendo finta di spararsi, ma per errore le sue dita sono scivolate sul grilletto che ha azionato il meccanismo e ha sparato non lasciandogli scampo. Il ragazzo si è ferito gravemente alla testa e quando è stato soccorso dalla madre e dalla sorella che avevano avvertito il forte boato riecheggiare in tutta la casa, l’adolescente era ancora vivo. Trasportato d’urgenza in un ospedale della zona, non lontano da Forest Park, Malachi è morto a causa delle ferite riportate. 

La tragedia si è consumata in diretta streaming su Instagram Live, davanti agli occhi dei suoi followers collegati al suo profilo. La madre Shaniqua Stephens quando è accorsa nella camera da letto del figlio, ha trovato quest’ultimo in una pozza di sangue e ha raccolto lo smartphone ancora acceso e ancora collegato in diretta. 

La polizia ha aperto un’indagine per fare luce su quanto accaduto. Dalle prime ricostruzioni effettuate dagli inquirenti, il giovane non si sarebbe procurato l’arma in casa, poiché i genitori non ne possedevano nemmeno una. Resta dunque da capire come Malachi si sia procurato l’arma, per giunta carica. 

– I social network possono salvare una vita?

Il caso di Malachi che si è ucciso per errore in diretta su Instagram pone comunque al centro la riflessione sulla responsabilità dei social media e sulle misure adottate per fronteggiare e limitare episodi di questa natura, in particolare sui suicidi in diretta.

Ci si è domandati se i social network che rappresentano ormai una vetrina dove ogni singolo momento della nostra vita viene esposto alla mercé di un pubblico sconosciuto, siano davvero in grado di salvare una vita.

Se la morte di Malachi è avvenuta per errore, dall’altra tanti altri adolescenti hanno deciso di farla finita sparandosi in diretta, affidando a un video di qualche minuto gli ultimi istanti della loro vita. L’ultimo episodio in ordine di tempo è quello della ragazza americana di 12 anni, che aveva filmato la sua morte in diretta streaming. 

La domanda che resta inevasa è sempre la stessa: si poteva fare qualcosa per intervenire in anticipo ed evitare la tragedia? I social media più gettonati, come Facebook e Instagram di recente hanno adottato delle misure preventive per frenare e combattere (per quanto possibile) questo fenomeno drammatico. 

Verso la fine del 2016, Instagram aveva annunciato una serie di nuovi strumenti di controllo per rendere il “social” un posto accogliente per tutti. Sui commenti, per esempio, è già da tempo possibile filtrare determinate parole chiave. Il passo successivo è disattivare completamente la possibilità di commentare un post. Al controllo dei commenti, si è aggiunta la possibilità di segnalare in modo anonimo un post che sembra indicare la possibilità di episodi autolesionisti da parte degli altri utenti. 

Anche Facebook si è allineata per certi versi in questa direzione, iniziando a usare l’intelligenza artificiale per identificare utenti della piattaforma che sarebbero a rischio suicidio. Il social network ha sviluppato un algoritmo che permette di individuare segnali d’allarme nei post e nei commenti.

Dopo la conferma da parte di un team di Facebook, la compagnia contatta gli utenti che ritiene possano essere a rischio per suggerirgli come cercare aiuto. Per ora questo strumento sarà sperimentato solo negli Stati Uniti. 

Mark Zuckerberg, il fondatore del social network, ha annunciato a febbraio che sperava di usare un algoritmo simile per identificare post con messaggi terroristici, distinguendo tra semplici storie legate al tema e testi che incitano e fanno propaganda. 

Da anni Facebook offre consigli agli utenti ritenuti a rischio suicidio, ma fino a ora ha fatto affidamento sulle segnalazioni degli altri membri della community che potevano ricorrere all’uso del tasto “report”.

Ora è stato sviluppato un algoritmo che riconosce se qualcuno ha difficoltà, aiutandosi con i post precedentemente segnalati dagli utenti. Parlare di tristezza e sofferenza, per esempio, potrebbe essere visto come uno di questi segnali. Un altro elemento di preoccupazione potrebbero essere le risposte degli amici su Facebook. Frasi come “Stai bene?” o “Sono preoccupato per te” potrebbero far scattare l’allarme.

Un’altra discussione riguarda i video in diretta di Facebook. “Qualcuno dice che dovremmo chiudere lo streaming del video nel momento in cui c’è un indizio che qualcuno sta parlando di suicidio”, ha detto Jennifer Guadagno, che si occupa di questa parte del progetto per Facebook. “Ma quello che gli esperti sottolineano è che bloccare all’improvviso lo streaming può eliminare la possibilità di chi riprende di raggiungere altre persone e poter ricevere offerte d’aiuto”.