Photo credit: Markus Spiske
Pubblicato sul Corriere della Sera, inserto Innovazione, il 30/11/2018
Siamo sicuri che motori di ricerca come Google ci forniscano quadri accurati di individui e popolazioni? Ho fatto un esperimento: ho scritto su Google i nomi di popolazioni di migranti in Italia, al singolare e al plurale. Nigeriani, tunisini, rumeni. La prima pagina di risultati è una raccolta di articoli di blog e giornali che raccontano crimini e arresti. Scorrere le foto, poi, è un po’ come consultare uno schedario della polizia. Primi piani e profili di ciminali sono accompagnati da didascalie inquietanti: arrestati, condannati, incastrati, violenza, rissa, aggressione, accoltellamento, droga, armi, massacro.
Google ordina i risultati per rilevanza, utilizzando centinaia di fattori, tra cui posizione geografica, tempistica, numero di click, collegamenti a pagine autorevoli, estetica del sito, e precedenti ricerche. Per evitare che i miei risultati siano influenzati da precedenti ricerche, elimino cronologia e cache. Riprovo – stesso risultato. Chiedo poi ai miei amici di Facebook di fare lo stesso, e ricevo screenshots da una trentina di persone: cambia soltanto l’ordine dei link. Bing mi fornisce risultati pressoché identici a Google. DuckDuckGo, un motore di ricerca che non colleziona dati a scopi pubblicitari, almeno mi mostra una pagina su usi e costumi nigeriani, e un’altra che elenca nomi tipici nigeriani da dare ai propri figli. Tra le immagini di arresti, appaiono poi anche donne sorridenti, feste tradizionali, sport e cibo.
Mi chiedo allora perché l’algoritmo di Google associ i francesi alle baguette e i nigeriani alla criminalità. La risposta “i migranti sono in aumento e commettono crimini” è troppo facile. Anzitutto non c’è nessuna invasione di migranti: Unhcr e Oim hanno rivelato che nei primi 9 mesi del 2018 l’Italia ha accolto poco più di 21.000 migranti, quasi il 90% in meno rispetto allo stesso periodo nel 2017. E anche se i migranti fossero in aumento, perché dovrebbero diventare automaticamente i responsabili della criminalità commessa sul suolo italiano? Ad ogni modo, la questione non si pone neanche, dato che anche la criminalità è diminuita negli ultimi anni. Gli omicidi, poi, non sono mai stati così pochi dall’unità d’Italia: 320 l’anno scorso, un tredicesimo di quanti se ne contarono nel 1991. Per di più, il 20% dei crimini degli immigrati consistono nel non avere un passaporto in regola.
Ma allora perché tutto quello che riusciamo a trovare su internet sugli immigrati sono racconti di violenza? Matthew Bui, ricercatore alla University of Southern California, si chiede in che modo i motori di ricerca alimentano pregiudizi. Bui ha scoperto che cercando su Google dati sugli immigrati negli Stati Uniti, la prima risorsa che appare tra i risultati è il “Center for Immigration Study”. A prima vista un sito innocuo e autorevole, è in realtà una fonte di dati non affidabili a cui fa riferimento il presidente Trump quando parla di questioni di immigrazione. “Dovremmo chiederci come è possibile che questo sito sia la prima scelta di Google,” mi dice Bui. Ma Google dovrebbe considerarsi responsabile dell’accuratezza dei propri contenuti, almeno quelli della prima pagina? “In qualche caso Google ha trattato situazioni come questa come problemi tecnici del sistema, e le ha parzialmente risolte” dice Bui, “ma l’algoritmo è un problema fino ad un certo punto.” Il problema sarebbe la popolazione bianca e razzista che nutre i risultati dei nostri motori di ricerca, e che rappresenta le minoranze in conformità con i propri pregiudizi. Minoranze che, da parte loro, non hanno strumenti e risorse per fornire narrazioni alternative.
“L’algoritmo certifica le tue paure,” mi dice Silvia Brena, giornalista e cofondatrice di Vox Diritti, che l’estate scorsa ha pubblicato la Mappa dell’Intolleranza sul suolo italiano. Il progetto ha evidenziato che dal 2016 sono raddoppiati i tweet contro ebrei e migranti, e quasi triplicati i tweet contro i musulmani. “Social e motori di ricerca tentano di massimizzare la veicolazione dei messaggi, a prescindere dal loro contenuto” dice Brena. I messaggi d’odio girano veloci – e così finisce che, se perfino Google ci rappresenta un intero popolo come criminale, ci sentiamo legittimati ad esprimere sentimenti razzisti online e a rinforzare un circolo vizioso di paura e odio.
Per curiosità ho chiesto ad alcuni miei colleghi inglesi di cercare su Google “Italians”. Eccoci riassunti in foto di pasta e pizza, e articoli che parlano di mafie e di una situazione politica dubbia. Se anche è vero che ci piace la pasta (e che gli effetti della rappresentazione attuale degli italiani all’estero non hanno nulla a che vedere con la discriminazione subìta ogni giorno persone di diverse etnie) anche noi siamo ridotti ad uno stereotipo che ci appiattisce e in qualche modo ridicolizza. Rappresentazioni parziali e stereotipiche di questo tipo non possono essere soltanto trattate come un problema tecnico del sistema. Sono un problema intrinseco al sistema. Google è spinto da scopi commerciali prima che da scopi di accuratezza, e non è un mistero. Ci fornisce risposte immediate e spesso utili, ma non dobbiamo illuderci che la prima pagina di risultati sia tutto quello che c’è da sapere su un argomento. E allora nessun problema se voglio controllare l’altezza di una montagna o il ristorante più vicino. Ma quando si tratta di temi socialmente complessi come comprendere altre popolazioni, consulterò internet controllando le fonti dei risultati senza mai abbassare la guardia. Se poi mi sembrasse di incontrare una narrativa predominante, chiuderò il computer e andrò in biblioteca.
© Riproduzione riservata