Leggi TPI direttamente dalla nostra app: facile, veloce e senza pubblicità
Installa
Menu
Home » Gossip

Perché i dipendenti di Facebook sono costretti a vedere tonnellate di pornografia

Tutto ciò che pubblichiamo online sui social network è severamente controllato dai moderatori che lavorano per le aziende e si occupano dei contenuti segnalati dagli utenti

Di Camilla Palladino
Pubblicato il 9 Feb. 2018 alle 15:01 Aggiornato il 12 Set. 2019 alle 19:23

Sarah Katz, ex moderatrice dei contenuti di Facebook, ha recentemente rilasciato delle dichiarazioni alla BBC a proposito di ciò che gli utenti pubblicano.

Questa notizia puoi leggerla direttamente sul tuo Messenger di Facebook. Ecco come

“Si tratta principalmente di pornografia”, ha raccontato la ragazza.

“L’agenzia ci aveva messi in guardia su quale tipo di contenuti avremmo visto”.

Se ti piace questa notizia, segui TPI Pop direttamente su Facebook

Il lavoro di Sarah Katz

Katz ha cominciato a lavorare per un’agenzia di moderatori di Facebook nel 2016, ed è rimasta nella sua posizione per otto mesi.

Il suo lavoro consisteva nell’eliminazione dei contenuti ritenuti inappropriati dagli utenti di facebook, a seconda delle segnalazioni che riceveva.

“Ci limitavamo a spendere circa un minuto per post per decidere se si trattava di spam e se rimuovere il contenuto”, e inoltre “dovevamo eliminare l’account associato”.

L’agenzia prevede contratti da otto ore lavorative al giorno, durante le quali gli impiegati devono esaminare circa 8mila post, il che significa “circa mille post all’ora”.

Nonostante l’abitudine, la ragazza ha affermato che se dovesse trovare una parola per descrivere il suo vecchio lavoro, sarebbe “estenuante”.

I contenuti inappropriati più frequenti: immagini pornografiche

“Devi sicuramente essere pronto a vedere qualsiasi cosa dopo un solo clic. Puoi essere colpito molto velocemente e senza preavviso”, ha spiegato Katz.

Per esempio a lei è capitato di vedere immagini pedopornografiche che le sono rimaste orribilmente impresse nella mente.

Erano le immagini di “due bambini – il ragazzo aveva circa 12 anni e la ragazza circa otto o nove – in piedi uno di fronte all’altro”.

“Non indossavano i pantaloni e si stavano toccando. Sembrava davvero che ci fosse un adulto dietro alla videocamera a dirgli cosa fare. Era molto inquietante, soprattutto perché si poteva dire che era reale”.

“Circolano molti di questi post espliciti. Li vedevamo apparire spesso da circa sei utenti diversi in un giorno, quindi è stato abbastanza difficile trovare la fonte originale”, ha spiegato Katz.

Quando la ragazza ha lavorato per l’agenzia, come lei stessa ha raccontato, non era disponibile un servizio di consulenza al quale rivolgersi, anche se, a suo avviso, le sarebbe stato molto utile.

“Sicuramente ti avvertono, ma essere avvertiti e vederlo effettivamente sono cose diverse”, ha continuato l’ex moderatrice di Facebook.

Inizialmente “alcune persone pensano di poterlo gestire e solo dopo scoprono di non riuscirci, o che in realtà è peggio di quanto si aspettassero”.

I contenuti inappropriati più frequenti: violenza esplicita

“Si diventa piuttosto desensibilizzati alla violenza nel tempo. Non direi che diventa più facile, ma ti ci abitui”, ha affermato Katz.

E ha continuato a raccontare: “C’era ovviamente molta pornografia generica tra adulti consenzienti, il che non era altrettanto inquietante”.

Ma comunque “erano immagini colme di bestialità. Ce n’era una con un cavallo che continuava a circolare”.

“C’è molta violenza esplicita, ce n’era una di una donna decapitata, con la testa sul pavimento e il busto retto era ancora sulla sedia”.

L’agenzia, ha detto Katz, era molto più attenta a far rimuovere le foto pedopornografiche piuttosto che quelle violente.

Prima che scoppiasse la bufera delle fake news

“Penso che ora Facebook sia stato attaccato dalle fake news. Ma nel periodo precedente alle elezioni americane, sembrava molto lontano dal radar, almeno nel periodo in cui lavoravo lì”. La ragazza ha addirittura detto di non aver mai sentito il termine ‘fake news’ durante quel periodo, cosa che attualmente sembra impensabile.

“Abbiamo visto molti articoli di notizie che circolavano e venivano segnalati dagli utenti, ma non ricordo che la direzione ci abbia mai chiesto di sfogliare gli articoli per assicurarci che tutti i fatti fossero verificati”.

Con il passare del tempo, questo tipo di lavoro diventa “molto monotono e ti abitui veramente a ciò che è spam e ciò che non lo è. Diventa solo un sacco di clic”.

“Se lo raccomanderei? Se potessi fare qualsiasi altra cosa, la farei”, ha concluso Katz.

La risposta di Facebook alle dichiarazioni di Sarah Katz

Alle parole dell’ex moderatrice dei contenuti inappropriati di facebook, un portavoce del social network ha detto: “I nostri moderatori svolgono un ruolo cruciale nel rendere Facebook un ambiente sicuro e aperto”.

“Questo può essere un lavoro molto impegnativo e vogliamo essere sicuri che si sentano adeguatamente supportati”.

“È per questo che offriamo una regolare formazione, un servizio di consulenza e di supporto psicologico a tutti i nostri dipendenti, e a tutti coloro che lavorano per noi attraverso i nostri partner”.

“Anche se usiamo l’intelligenza artificiale dove possiamo, ci sono più di 7mila persone che esaminano i contenuti di Facebook e prendersi cura del loro benessere è una vera priorità per noi”, ha concluso.

Se questa notizia ti è piaciuta, abbiamo creato una pagina Facebook apposta per te: segui TPI Pop

Leggi l'articolo originale su TPI.it
Exit mobile version