Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Menu
  • Esteri
  • Home » Esteri

    “Meme e algoritmi: così l’estrema destra sfrutta Internet per radicalizzare i giovani”

    Da YouTube al deep web, chiunque abbia un messaggio che vuole normalizzare online può sfruttare la Rete per diffondere la propria ideologia. A qualche giorno dall'attacco terroristico in Nuova Zelanda, TPI ne ha parlato con Ambrose Pym, laureando specializzato nella radicalizzazione alt-right online.

    Di Viola Stefanello
    Pubblicato il 27 Mar. 2019 alle 17:13 Aggiornato il 10 Set. 2019 alle 16:17

    I giorni che hanno seguito l’attentato terroristico di Christchurch, in Nuova Zelanda, sono stati colmi di dubbi e dita puntate a indicare un colpevole morale o l’altro. Su una cosa non c’è dubbio: la strage, che ha visto 50 persone morire e altre 50 essere ferite quando un uomo ha aperto il fuoco su due luoghi di culto musulmani nella terza città più grande della Nuova Zelanda, è stata motivata dall’ideologia di estrema destra a cui l’attentatore aderiva.

    L’attentatore, un 28enne australiano, ha trasmesso la sua carneficina in diretta su Facebook dopo averla annunciata anche su Twitter e sulla piattaforma 8chan, pubblicando negli stessi post anche un link al suo personale manifesto di 78 pagine: “The Great Replacement”, ovvero “La Grande Sostituzione”. Fin dal titolo, il documento è un costante riferimento a teorie cospirazioniste, posizioni di destra radicale – la cosiddetta alt-right – e citazioni “colte” che richiamano i meme più edgy di Internet.

    >>> Nella chat dei neofascisti la strage in Nuova Zelanda in diretta minuto per minuto: “È iniziata la rivoluzione ariana”

    Se per moltissimi il fatto che Internet possa essere – e sia – un covo perfetto per le fasce più estremiste di qualsiasi ideologia è una cosa più che scontata, come questo effettivamente succeda non è sempre chiaro, soprattutto per chi non capisce benissimo neanche cosa sia “un meme edgy“.

    Per evitare di ricadere nella retorica che vede giornalisti e politici incolpare qualsiasi fenomeno digitale – dai videogiochi violenti ai giochi di ruolo – di radicalizzare i giovani, TPI ha parlato con Ambrose Pym, laureando specializzato in Sicurezza Internazionale alla Scuola di Affari Internazionali Sciences Po di Parigi, che da mesi lavora a una ricerca su come l’alt-right raccolga proseliti online, aiutando a normalizzare e spargere il genere di messaggio che sta dietro a stragi come quella di Christchurch.

    Un radicalismo ignorato

    Per anni, lo studio della radicalizzazione su Internet e i programmi nazionali di contrasto all’estremismo violento e di deradicalizzazione si sono concentrati sull’Islam radicale, lasciando uno spazio praticamente inesistente all’osservazione del fenomeno in crescita degli estremismi di destra. Basti pensare che, in risposta all’attentato terroristico in Nuova Zelanda, il ministro dell’Interno, Matteo Salvini, ha affermato che “l’unico estremismo che merita di essere attenzionato è quello islamico” e che “se c’è un estremismo per cui io firmo la metà degli atti che firma il Ministero dell’Interno, è l’estremismo di matrice islamica”.

    Eppure, i numeri sono in crescita. Un report recentissimo dell’organizzazione statunitense Anti-Defamation League ha mostrato come, nel 2018, negli Stati Uniti siano state uccise 50 persone da estremisti. Di quegli omicidi, nel 98 per cento dei casi i responsabili erano motivati da ideologie di estrema destra e nel 2 per cento dall’estremismo islamico.

    E il fenomeno, come conferma l’episodio di Christchurch, non si limita agli States. Se già nel 2011 l’estremismo di destra aveva ucciso 77 persone in Norvegia, da allora l’ideologia si è ulteriormente risvegliata, come dimostrano le 60mila persone che hanno marciato a Varsavia nel 2017 brandendo cartelli che leggevano slogan come “Europa Bianca” e “Sangue puro”, o i cimiteri ebraici sistematicamente vandalizzati in Francia.

    In tutto ciò, Internet gioca un ruolo fondamentale. “Permette una sorta di auto-radicalizzazione. Entri in contatto con un certo contenuto, nel tuo tempo libero, mentre sei online”, spiega Ambrose. “Soprattutto se navighi nel deep web, puoi addirittura ottenere gran parte dell’addestramento che normalmente dovresti fare di persona. Puoi trovare manuali, scoprire come costruire bombe, di tutto. È ideale per le persone che non hanno grandi capacità relazionali”.

    Da YouTube a 4Chan, le piattaforme della radicalizzazione

    L’identikit dell’estremista alt-right è inevitabilmente e piuttosto stereotipicamente quello dell’uomo che passa tantissimo tempo online. “Ma è importante sottolineare che questo non è l’unico profilo possibile”, sottolinea Ambrose, “e credere che gli unici interessati dal fenomeno siano uomini bianchi è pericoloso”.

    L’indottrinamento, ci spiega, comincia spesso in modo piuttosto innocuo. Un video su YouTube, magari. Grazie ad algoritmi disegnati per far sì che l’utente rimanga il più a lungo possibile sulla piattaforma, che funzionano in modo molto simile da sito a sito, chiunque capiti su un video particolarmente controverso può ritrovarsi in una “camera degli eco” in cui ogni contenuto non fa altro che rinforzare le convinzioni dell’utente e presentare idee ancora più estreme in merito.

    Poi ci sono i forum. Siti imageboard – ovvero basati sulla pubblicazione di immagini da parte degli utenti – come 4chan e 8chan sono diventati ricettacoli di contenuti che normalizzano discorsi razzisti e misogini. Un’analisi del media no-profit The Conversation, che ha trattato approfonditamente il tema, ha calcolato statisticamente che “/pol/”, il forum che su 4chan catalizza i discorsi alt-right e neonazisti, è il più influente disseminatore di meme in termini quantitativi online, specializzato soprattutto nel diffondere idee razziste e “politicamente scorrette”.

    Altrettanto importanti sono il social network Reddit, il servizio di messaggistica Discord e ovviamente Gab, il cosiddetto “Twitter della libertà d’espressione”, il cui fondatore ha affermato che “la libertà di espressione vuol dire che si può offendere, criticare e fare meme su qualsiasi razza, religione, etnia o orientamento sessuale”. Descritto come porto sicuro per neonazisti, suprematisti bianchi e alt-right, Gab è stato molto criticato in quanto l’attentatore che ha ucciso 11 persone nella sparatoria contro la sinagoga di Pittsburgh era un utente attivo del social network e aveva annunciato il proprio piano omicida proprio su Gab prima di aprire il fuoco.

    Questo paradigma rientra in quella che il ricercatore della Georgetown University Moghaddam chiama “la scala verso il terrorismo”: gli attacchi terroristici sarebbero infatti l’ultimo passo di una scala ascendente che porta individui che si sentono trattati ingiustamente e privati di una voce a individuare certe ideologie estremiste come legittime, e a pensare a chiunque altro come il nemico. Questa radicalizzazione, scrive il ricercatore, avviene passo dopo passo, talvolta nell’arco di anni in cui il soggetto viene esposto a una certa ideologia.

    Una zona grigia tra ironia e estremismo

    “Una cosa che voglio sottolineare è che i meme in sé non causano radicalizzazione”, spiega Ambrose, “non c’è quel genere di causalità diretta che viene spesso imputata anche ai videogame. Il problema è piuttosto che i meme, come ad esempio nel caso del thread The_Donald su Reddit o su ‘/pol/’, plasmano il discorso pubblico. Il razzismo ironico online ha normalizzato il razzismo nella vita reale. Far finta che i meme non abbiano alcuna conseguenza e che siano solo dei fenomeni sciocchi è disonesto e ugualmente dannoso”.

    I meme, in questo senso, operano in una zona grigia: è difficilissimo, se non impossibile, capire chi sta “solo scherzando” e chi è invece convintamente razzista, misogino, neonazista. È quella che nel mondo accademico è conosciuta come Legge di Poe: “senza un emoticon sorridente o qualche altro chiaro segno di intenti umoristici, non è possibile creare una parodia del fondamentalismo in modo tale che qualcuno non la confonda con il vero fondamentalismo”.

    “Oggi, chiunque può nascondere il proprio estremismo dietro al sarcasmo, alle battute, ai meme”, continua Ambrose. “È la cosiddetta edginess, una parte importante della cultura troll online. Di base, per ottenere like, condivisioni e supporto, più sei controverso, meglio è. Questo ha portato il razzismo a essere piuttosto comune su questi forum, che poi sono un trampolino per far sì che questi discorsi siano condivisi su piattaforme più mainstream, come Twitter, Instagram o Facebook”.

    “L’idea principale è quella di legittimare le retoriche estremiste inserendole nel discorso pubblico”, dice Ambrose. La tecnica non è certo nuova: si tratta della cosiddetta finestra di Overton. “Secondo  questo concetto, affinché un politico abbia successo nel promuovere le proprie idee, queste idee devono prima entrare a far parte della finestra del supporto pubblico. Quindi, l’obiettivo delle persone che stanno ai margini è quello di spostare questa finestra così che idee precendetemente radicali vengano considerate accettabili”, spiega. In questo senso, in tanti hanno accusato il presidente degli Stati Uniti, Donald Trump, di aver contribuito, ad esempio, a legittimare la retorica nazionalista.

    Come ha spiegato i ricercatori dietro al paper “Elite male bodies: The circulation of alt-Right memes and the framing of politicians on Social Media”, “i meme possono essere letti come mezzi incredibilmente potenti e persuasivi che vengono adottati dall’alt-right per giustificare i loro discorsi tossici. La parodia maschera il contenuto problematico spacciandolo per una battuta, ma la circolazione massiccia di questi meme e le risposte che generano fanno parte della strategia comunicativa dell’alt-right. In altre parole, attraverso il loro linguaggio persuasivo, questi meme hanno una vera influenza sociale”.

    Lo stesso ha voluto fare l’attentatore di Christchurch con il proprio manifesto. “Basta vedere come il suo manifesto fosse quasi un meme in sé. È chiaro che volesse far parlare di sé: ha selezionato tutti questi aspetti della cultura pop, citando personaggi come PewDiePie, per generare quanta più copertura mediatica e attenzione possibile, portando l’ideologia del nazionalismo bianco nella discussione pubblica”, sottolinea Ambrose. “Anche qui, non possiamo dire che siano stati soltanto i meme a radicalizzarlo: non è che ha guardato un meme ed è diventato un estremista. Ma gran parte della sua radicalizzazione è avvenuta online, come reazione a fatti avvenuti nel mondo reale”.

    Come limitare, allora, queste radicalizzazioni?

    Il problema dell’estremismo di destra non si limita certo agli Stati Uniti, all’Australia o alla Nuova Zelanda, però. “Questo genere di ideologia esiste ovunque esistano etnie diverse, ovunque ci siano migranti che vengono visti come invasori”, dice Ambrose.

    “I politici delle generazioni più anziane scelgono di incolpare fenomeni che piacciono ai giovani, dall’alto della loro scarsa compressione di Internet, dei videogame, anche della musica. È come incolpare il rock o il rap per l’aumento della violenza: l’idea che ci sia una cultura demoniaca a cui i giovani partecipano non ha senso. È necessario comprendere i fenomeni e rapportarcisi piuttosto che osservarli da lontano”.

    Sono in molti a sostenere che la responsabilità di soffocare il fenomeno della radicalizzazione online debba ricadere sulle spalle dei giganti di Internet, come Twitter o Facebook.

    “Le compagnie private hanno tantissimo potere, si può provare a proporre una sorta di collaborazione internazionale per condividere strategie per la deradicalizzazione, ma alla fine c’è necessariamente un onere che ricade su queste compagnie. Se, però, non si fa altro che bandire questi contenuti, si deve pensare al fatto che questi attori troveranno sempre un modo di condividerli online. Il problema di limitare la libertà di espressione per bloccare l’estrema destra è che non si ottiene altro che spingerli ulteriormente sottoterra, nel dark web, dove è ancora più difficile monitorare i loro discorsi”, spiega l’esperto. “È per questo che bisogna lavorare a strategie di deradicalizzazione positive: offrendo contronarrative che sfidino direttamente le ideologie, o narrative alternative che offrano una via d’uscita alternativa”.

    Leggi l'articolo originale su TPI.it
    Mostra tutto
    Exit mobile version