Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Menu
  • Esteri
  • Home » Esteri

    Cosa si può fare per cambiare in meglio Facebook

    Di Luca Serafini
    Pubblicato il 11 Ott. 2021 alle 15:27

    Ciclicamente, a intervalli di tre o quattro anni, a minare la nostra assuefazione nei confronti delle piattaforme social e di alcuni meccanismi perversi che ne regolano il funzionamento arriva uno scandalo di tale portata da rimettere tutto in discussione. Era accaduto tra il 2016 e il 2018 con la vicenda di Cambridge Analytica, la società di consulenza che aveva raccolto illegalmente i dati di 87 milioni di americani e li aveva utilizzati per una vasta operazione di manipolazione delle scelte elettorali attraverso l’invio di annunci politici personalizzati, influenzando così l’esito delle elezioni Usa vinte da Donald Trump e del referendum sulla Brexit.

    Fu allora che, per la prima volta, l’entusiasmo per i social network e per il modo in cui avevano rivoluzionato (in meno di 10 anni) le nostre vite venne rimpiazzato da una presa di consapevolezza collettiva sugli effetti potenzialmente nefasti di un utilizzo poco accorto di quelle stesse piattaforme. Rotti gli argini, da lì in poi le inchieste si sono moltiplicate: vari report hanno evidenziato ad esempio, nel corso degli anni, le responsabilità di Facebook nel fomentare l’odio contro la minoranza musulmana dei Rohingya in Myanmar, o nel legittimare il potere autocratico e repressivo di Duterte nelle Filippine.

    Ora è la volta della maxi inchiesta del Wall Street Journal nata dalle rivelazioni di Frances Haugen, ex product manager di Facebook, che ha messo in luce la sostanziale indifferenza dei dirigenti del colosso social (Zuckerberg in primis) per gli effetti della piattaforma sulla salute mentale degli adolescenti, l’aumento della polarizzazione politica, il sostanziale inquinamento del dibattito pubblico (attraverso la promozione di contenuti divisivi, che suscitano rabbia e indignazione).

    Zuckerberg, questa è la sostanza dell’impianto accusatorio, non solo non fa nulla per mettere un freno a queste derive, ma in qualche modo le incentiva consapevolmente. Gli effetti di Instagram sugli adolescenti sono infatti stati documentati da un report realizzato da Fecebook stessa, mentre nel 2018 è stato il fondatore e Ceo dell’azienda a incentivare un cambio di algoritmo che permettesse di monetizzare sui contenuti incendiari.

    Ma perché l’ha fatto? Come messo in luce sul nostro settimanale The Post Internazionale – TPI da Kevin Roose, editorialista di punta del New York Times, Facebook ha un problema enorme legato alla sua sempre minore attrattiva per le nuove generazioni: “L’uso della piattaforma tra gli adolescenti – scrive Roose – negli Stati Uniti è in calo da anni e si prevede che presto crollerà ancora di più. I ricercatori dell’azienda hanno previsto che l’accesso quotidiano diminuirà del 45 per cento entro il 2023 e hanno anche rivelato che Instagram, la cui crescita ha compensato per anni il calo di interesse per Facebook, sta perdendo quote di mercato a favore di rivali in rapida ascesa come TikTok”. Ciò sta spingendo, tra le altre cose, gli stessi influencer a “migrare” su altre piattaforme, con ulteriori perdite di introiti per Facebook.

    Sembra quindi che Zuckerberg, per cercare di arginare la crisi, abbia deciso di alzare la posta, creando un ecosistema online in cui, per effetto dei cambiamenti all’algoritmo, agli utenti vengano offerti contenuti in grado di generare emozioni sempre più estreme. Non importa se ciò che mi appare sul News Feed è vero o falso, se è in grado di farmi riflettere su un determinato argomento. L’importante è che mi provochi un’emozione forte e immediata. Questo doping emotivo è, in sostanza, il tentativo estremo messo in atto da Facebook per sembrare ancora “alla moda”, per convincere anche gli utenti più giovani di non essere ormai un social “per vecchi”.

    La necessità è una e una sola: generare interazioni in qualunque modo, indipendentemente dagli effetti sul dibattito pubblico e sulla psicologia degli individui, col solo scopo di trattenere al proprio interno gli inserzionisti pubblicitari e salvarsi dal declino.

    Le soluzioni proposte da Frances Haugen

    Proprio per queste ragioni, Frances Haugen non si è limitata ad un’operazione di whistleblowing ma, davanti ai senatori americani, ha proposto alcune soluzioni per rompere questo modello di business basato sulle emozioni estreme e, di conseguenza, cambiare le modalità attraverso cui interagiamo con amici e contenuti su Facebook.

    La prima soluzione proposta riguarda un cambiamento tale da far comparire sul News Feed i post in un ordine meramente cronologico, superando quindi il filtro algoritmico che premia i contenuti maggiormente virali (che hanno ottenuto quindi più interazioni), nonché quelli in linea con le preferenze che abbiamo manifestato in passato. Ciò permetterebbe di rompere il meccanismo alla base della formazione delle bolle ideologiche: se sono salviniano, vedrò comparirmi in bacheca anche post di amici di sinistra, e viceversa.

    La proposta a dire il vero non è nuova, ed è una riproposizione del concetto di “serendipità online”, ovvero la possibilità di imbattersi in esperienze inattese, in qualcosa che non stavamo cercando e che, di conseguenza, può mettere in discussione le nostre convinzioni e spingerci a ragionare su punti di vista che non avevamo mai preso in considerazione.

    Ne parlò già nel 2013 uno studioso americano, Ethan Zuckerman del MIT di Boston, nel libro “Rewire. Cosmopoliti digitali nell’era della globalità”, nel quale proponeva di progettare algoritmi che tenessero traccia delle nostre interazioni precedenti per proporci qualcosa di nuovo, al di fuori delle nostre conoscenze e della nostra “comfort zone”.

    Da allora, proposte analoghe sono state ripresentate ciclicamente, ma il corso della storia ha preso una direzione opposta: si tratta al momento di una soluzione di difficile attuazione, poiché mina alla base il modello di business delle piattaforme social, ovvero la vendita di spazi pubblicitari e la monetizzazione attraverso le interazioni (che, con ogni evidenza, avvengono più facilmente quando ci troviamo davanti contenuti in linea coi nostri valori e la nostra visione del mondo).

    Una soluzione leggermente più “raffinata” di quella proposta da Haugen, e che da qualche tempo ha preso piede nel dibattito accademico, è invece quella di stimolare interazioni differenti: sostituire ad esempio il tasto “mi piace” con un tasto “è vero”, o “è affidabile”. In questo modo, non verrebbe minato alla base il nesso tra interazione e guadagno, ma verrebbe promossa una socialità più sana, con una sfida al rialzo per dimostrarsi più competenti, più autorevoli, e non necessariamente più “emozionati”.

    La seconda soluzione promossa da Haugen è invece quella più interessante: impedire di condividere un contenuto sui social se prima non lo si è aperto. Si tratta della pratica dello “sharebait”, per cui ad esempio frotte di utenti condividono un articolo di giornale solo sulla base del titolo, senza nemmeno averlo letto. Ciò spinge, evidentemente, le stesse testate giornalistiche ad adottare una comunicazione sensazionalistica, a scrivere titoli in grado da soli di suscitare un’adesione entusiastica, con testi dal significato diretto e accattivante, ma spesso poco o per nulla aderenti a quanto contenuto all’interno dell’articolo. Diversi studi condotti negli ultimi anni hanno mostrato come, sui social, oltre il 60 per cento degli articoli venga condiviso senza essere aperto.

    Il sostanziale “negazionismo” di Facebook rispetto a quanto emerso nell’inchiesta del Wall Street Journal non sembra comunque, al momento, prefigurare una reale volontà di intervenire sul funzionamento degli algoritmi. Nel 2018, dopo lo scandalo Cambridge Analytica, Zuckerberg non poté che assumersi (almeno formalmente) le sue responsabilità, promettendo alcuni cambiamenti nei meccanismi alla base della cessione dei dati degli utenti a terze parti. Promesse che sono state poi mantenute solo in minima parte. Stavolta, però, manca persino l’ammissione di colpa.

    Leggi l'articolo originale su TPI.it
    Mostra tutto
    Exit mobile version