Home Mondo Più di 140 moderatori di Facebook in Kenya fanno causa dopo la...

Più di 140 moderatori di Facebook in Kenya fanno causa dopo la diagnosi di grave disturbo da stress post-traumatico | Supporti digitali

6
0

A più di 140 moderatori di contenuti di Facebook è stato diagnosticato un grave disturbo da stress post-traumatico causato dall’esposizione a contenuti espliciti dei social media, tra cui omicidi, suicidi, abusi sessuali su minori e terrorismo.

I moderatori hanno lavorato dalle 8 alle 10 ore al giorno in una struttura in Kenya per un’azienda incaricata dall’azienda di social media e il dottor Ian Kanyanya ha riscontrato che soffrivano di disturbo da stress post-traumatico, disturbo d’ansia generalizzato (GAD) e disturbo depressivo maggiore (MDD). il capo dei servizi di salute mentale dell’ospedale nazionale Kenyatta di Nairobi.

Le diagnosi di massa sono state fatte come parte di una causa intentata contro la società madre di Facebook, Meta, e Samasource Kenya, una società di outsourcing che ha effettuato la moderazione dei contenuti per Meta utilizzando lavoratori provenienti da tutta l’Africa.

Le immagini e i video che includevano necrofilia, bestialità e autolesionismo hanno causato lo svenimento, il vomito, l’urlo e la fuga di alcuni moderatori dalle loro scrivanie, sostengono i documenti.

Il caso sta facendo luce sul costo umano del boom dell’uso dei social media negli ultimi anni che ha richiesto sempre più moderazione, spesso in alcune delle parti più povere del mondo, per proteggere gli utenti dal materiale peggiore che alcune persone pubblicano.

Almeno 40 dei moderatori del caso abusavano di alcol, droghe tra cui cannabis, cocaina e anfetamine e farmaci come sonniferi. Alcuni hanno riferito di una rottura del matrimonio e del crollo del desiderio di intimità sessuale, oltre alla perdita del legame con le loro famiglie. Alcuni, il cui compito era rimuovere i video caricati da gruppi terroristici e ribelli, temevano di essere osservati e presi di mira e che, se fossero tornati a casa, sarebbero stati cacciati e uccisi.

Facebook e altre grandi società di social media e intelligenza artificiale si affidano a eserciti di moderatori di contenuti per rimuovere i post che violano gli standard della loro community e per addestrare i sistemi di intelligenza artificiale a fare lo stesso.

I moderatori del Kenya e di altri paesi africani sono stati incaricati dal 2019 al 2023 di controllare i post provenienti dall’Africa e nella loro lingua, ma sono stati pagati otto volte meno rispetto ai loro omologhi negli Stati Uniti, secondo i documenti della richiesta.

I rapporti medici depositati presso il tribunale per l’occupazione e i rapporti di lavoro di Nairobi e visionati dal Guardian dipingono un quadro orribile della vita lavorativa all’interno della struttura contrattata da Meta, dove ai lavoratori veniva fornito un flusso costante di immagini da controllare in uno spazio freddo simile a un magazzino, sotto luci intense e con la loro attività lavorativa monitorata minuto per minuto.

Quasi 190 moderatori stanno portando avanti una denuncia su più fronti che include accuse di inflizione intenzionale di danni mentali, pratiche di lavoro sleali, tratta di esseri umani, schiavitù moderna e licenziamenti illegali. È stato riscontrato che tutti i 144 esaminati da Kanyanya soffrivano di disturbo da stress post-traumatico, GAD e MDD con sintomi di disturbo da stress post-traumatico gravi o estremamente gravi nell’81% dei casi, per lo più almeno un anno dopo la loro partenza.

Meta e Samasource hanno rifiutato di commentare le affermazioni a causa del contenzioso.

Martha Dark, fondatrice e co-direttrice esecutiva di Foxglove, un’organizzazione no-profit con sede nel Regno Unito che ha sostenuto il caso giudiziario, ha dichiarato: “Le prove sono indiscutibili: moderare Facebook è un lavoro pericoloso che infligge un disturbo da stress post-traumatico permanente a quasi tutti coloro che moderano”. Esso.

“In Kenya, ha traumatizzato il 100% di centinaia di ex moderatori sottoposti a test per disturbo da stress post-traumatico… In qualsiasi altro settore, se scoprissimo che al 100% degli operatori della sicurezza viene diagnosticata una malattia causata dal loro lavoro, le persone responsabili sarebbero costrette a dimettersi e affrontare le conseguenze legali delle violazioni di massa dei diritti delle persone. Ecco perché Foxglove sostiene questi coraggiosi lavoratori nel chiedere giustizia ai tribunali”.

Secondo gli atti del caso di Nairobi, Kanyanya ha concluso che la causa principale dei problemi di salute mentale tra le 144 persone era il loro lavoro come moderatori di contenuti di Facebook poiché “si imbattevano quotidianamente in contenuti estremamente espliciti, che includevano video di omicidi raccapriccianti, autolesionismo, suicidi, tentati suicidi, violenza sessuale, contenuti sessuali espliciti, abusi fisici e sessuali su minori, orribili azioni violente solo per citarne alcuni”.

Quattro dei moderatori soffrivano di tripofobia, un’avversione o paura di schemi ripetitivi di piccoli buchi o protuberanze che possono causare ansia intensa. Per alcuni, la condizione si è sviluppata vedendo buchi su corpi in decomposizione mentre lavoravano sui contenuti di Facebook.

La moderazione e il relativo compito di taggare i contenuti sono spesso parti nascoste del boom tecnologico. Accordi simili, ma meno traumatizzanti, vengono presi affinché i lavoratori in outsourcing tagghino masse di immagini di cose banali come arredo urbano, soggiorni e scene stradali in modo che i sistemi di intelligenza artificiale progettati in California sappiano cosa stanno guardando.

Meta ha affermato di prendere sul serio il supporto dei revisori dei contenuti. I contratti con moderatori terzi di contenuti su Facebook e Instagram hanno dettagliato le aspettative in merito a consulenza, formazione, supporto in loco 24 ore su 24 e accesso all’assistenza sanitaria privata. Meta ha affermato che la retribuzione era superiore agli standard del settore nei mercati in cui operava e utilizzava tecniche come la sfocatura, l’attenuazione dei suoni e il rendering in bianco e nero per limitare l’esposizione al materiale grafico per le persone che recensivano i contenuti sulle due piattaforme.

Fonte

Previous articleDate una possibilità alla “scienza per la pace”.
Next articleBobbi Althoff, Sean Murphy-Bunting nega le voci sugli appuntamenti
pall Andrasson
un giornalista italiano noto per il suo lavoro con Atlantic Football, un quotidiano sportivo italiano. Si occupa di vari argomenti, in particolare legati al calcio e allo sport in generale. Le sue contribuzioni alla pubblicazione includono approfondimenti su partite, prestazioni dei giocatori e tendenze più ampie nel mondo dello sport. Se stai cercando articoli specifici o informazioni più dettagliate sul suo stile di scrittura e sugli argomenti trattati, potresti voler esplorare direttamente il sito di Atlantic Football o seguire le loro sezioni di notizie sportive per aggiornamenti. Per maggiori informazioni, puoi controllare Atlantic

LEAVE A REPLY

Please enter your comment!
Please enter your name here