I Disinfestatori della Rete

luis-villafranca-A6BZj3PY7L4-unsplash

Pubblicato sul Corriere della Sera, inserto Innovazione, il 29/03/2019

Forse ci piace credere che sia qualche potentissima intelligenza artificiale a salvaguardare i social media da una raccapricciante infestazione di porcherie. Per intenderci: porno infantile, omicidi e suicidi in diretta, discorsi d’odio, razzismo, terrorismo, estremismo, e incitazione alla violenza. Come hanno però rivelato recenti inchieste giornalistiche e processi giudiziari, la moderazione dei contenuti è ancora l’incarico di migliaia di uomini in carne ed ossa. Lavoratori invisibili e sottopagati disinfestano il web da un’umanità inguardabile – spesso senza un supporto psicologico adeguato. Giudicano 2000 contenuti l’ora, con la concessione di qualche ‘pausa benessere’ da 10 minuti. Molti di loro rimangono affetti da sindrome da disturbo post-traumatico, che si scatena anche solo al rumore di un click.

“Il consenso tra i sociologi che studiano questo argomento è che le piattaforme di social media non stiano facendo abbastanza per prendersi cura dei propri clienti e lavoratori” sostiene Prof. Gina Neff, sociologa all’Oxford Internet Institute. Società come Facebook abbelliscono la propria immagine enfatizzando i salari e le opportunità di carriera dei propri dirigenti e ingegneri nella Silicon Valley. Fanno poi però il minimo investimento possibile sui moderatori di contenuti, spesso impiegati di aziende esterne appaltate (come Cognizant o Accenture), che al momento ammontano a 15,000 persone sparse in oltre 20 siti nel mondo e guadagnano un decimo del dipendente medio di Menlo Park.

Migliorare le condizioni di questi lavoratori fantasma è un problema urgente. Metà della popolazione mondiale è su internet, e sono già intensi gli sforzi per consentire l’accesso al resto del globo. Aumenterà il bisogno di un controllo capillare, in tutte le lingue e culture. Ma quante persone abbracceranno questa professione spontaneamente e quanti, invece, accetteranno il compromesso del danno psicologico solo perché hanno bisogno di un lavoro? E dobbiamo credere a chi ci dice che la soluzione stia nell’automazione?

“L’intelligenza artificiale non è abbastanza sofisticata da comportarsi come un umano. Manca di sfumature, ironia, sarcasmo, non riconosce differenze e distinzioni interculturali,” dice Neff, portando l’esempio del modo in cui l’estrema destra usi immagini innocue per incentivare atteggiamenti d’odio e razzismo, riservandosi così la possibilità di negare alcune interpretazioni dei contenuti. “Dobbiamo essere molto cauti quando vediamo queste storie e diciamo ‘Potremmo automatizzare!’ Non è così che funziona,” dice Neff, “vogliamo che quel lavoro sia fatto da esseri umani e vogliamo che questi lavoratori siano assistiti.”

C’è poi da chiedersi quand’è che controllo dei contenuti diventi censura. Facebook guida la revisione dei contenuti attraverso un libro di regole aggiornato circa 20 volte al mese. Un codice di comportamento universale da interpretare a livello locale, opaco e scelto a tavolino da un ristretto gruppo di persone. Nell’applicare queste regole, può darsi che alcuni moderatori non conoscano abbastanza il panorama culturale che ha prodotto un post. Così come il personale schieramento politico di un moderatore potrebbe influenzare le sue decisioni. Senza contare il paradosso per cui, dopo aver passato mesi e anni a leggere fake news, un moderatore possa finire per crederci. In un’inchiesta di The Verge emerge che alcuni ex dipendenti abbiano iniziato a mettere in discussione alcuni aspetti dell’olocausto, o non credano più che l’11 settembre sia stato un attacco terroristico.

Qui possono aiutare i regolamenti politici. “In Germania, dove le leggi dei media sono molto più rigide rispetto agli Stati Uniti, la quantità di disinformazione che circola è molto inferiore,” suggerisce Neff. Tuttavia, diversi governi attualmente sfruttano i social media per disseminare fake news e sminuire il giornalismo serio: l’unica soluzione non può che essere in una legislazione multinazionale, di cui il Gdpr europeo potrebbe essere pioniere.

Piattaforme come Facebook, nel frattempo, stanno attente a non invischiarsi troppo in questo dialogo. Preferiscono comunicare attraverso risposte blande e unilaterali sui propri canali. è la nostra assuefazione a stati storie e likes a conferire ai social media la consapevolezza di un potere inespugnabile. Forse allora è il momento di lavorare sulle nostre dipendenze per far capire che promesse e deboli giustificazioni non sono più sufficienti per assicurarsi la nostra fiducia.

© Riproduzione riservata

Photo credit: Luis Villafranca

Published by silvialazzaris

Italian writer based in the UK.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s