Algoritmi di Oppressione: l’Inchiesta colossale di Safiya Noble svela il razzismo nascosto dei motori di ricerca

Per miliardi di persone, Google non è solo un motore di ricerca; è l’oracolo digitale, il curatore della conoscenza globale, il presunto arbitro neutrale della verità. Ma la Dr. Safiya Noble, accademica e studiosa di media digitali di fama mondiale, ha squarciato questa illusione. La sua monumentale inchiesta, condensata nel saggio “Algorithms of Oppression: How Search Engines Reinforce Racism”, non accusa semplicemente un’azienda, ma svela un meccanismo economico e tecnologico che codifica e amplifica il razzismo e il sessismo a un livello infrastrutturale. Il lavoro della Dr. Noble, che le è valso la prestigiosa MacArthur “Genius” Fellowship, ha trasformato la “discriminazione algoritmica” da concetto accademico a termine di dibattito pubblico, costringendo il settore tecnologico e la politica globale a confrontarsi con una verità scomoda: la tecnologia non è neutrale; è politica.

Il catalizzatore della ricerca di Noble fu una scoperta tanto semplice quanto devastante: le donne e le ragazze di colore venivano sistematicamente denigrate dal motore di ricerca più potente del mondo. Attraverso un’analisi incrociata durata anni, Noble ha dimostrato che la ricerca di termini innocui come Black girls” (ragazze nere) o Latina girls portava, in modo sproporzionato e persistente, a risultati esplicitamente pornografici e iper-sessualizzati nelle prime posizioni. Il paradosso era stridente: non era necessario digitare parole come “sesso” o “pornografia”. Per l’algoritmo di Google così come di altri motori di ricerca, la sessualizzazione delle donne di colore era già la risposta più “rilevante” o “popolare”.

Questo non era un malfunzionamento, ma il risultato diretto di come l’algoritmo di ranking traduce il mondo. I motori di ricerca non sono semplicemente tali ma sono, soprattutto, dei giganti pubblicitari. La logica primaria del motore di ricerca è massimizzare il profitto ed il contenuto pornografico è un settore massivamente monetizzato, che eccelle nell’ottimizzazione delle ricerche (SEO). Il sistema di ranking, basato su popolarità e link, ha quindi privilegiato economicamente la denigrazione.

Gli algoritmi sono addestrati su enormi dataset che, a loro volta, riflettono le disuguaglianze e gli stereotipi storici della società. Se Internet è inondato da contenuti che oggettificano le donne di colore, l’algoritmo, agendo da “specchio”, eleva questo contenuto, codificando l’oppressione nella struttura stessa dell’informazione. Noble ha efficacemente smantellato il mito della “matematica imparziale,” rivelando il motore di ricerca come un curatore di contenuto guidato dal capitale, non dalla conoscenza.

La posta in gioco della ricerca di Noble non si limita alla rappresentazione di genere e razza; riguarda la sopravvivenza di una cittadinanza informata. La studiosa sostiene che, trasformando la conoscenza pubblica in un bene privato e guidato dal profitto, aziende come Google, Bing, e altri motori di ricerca hanno compromesso il bene pubblico.

Ciò che viene chiamato ‘algoritmo’ è in realtà una decisione umana sulla priorità da dare a un’informazione rispetto a un’altra. E quando quella decisione è guidata da criteri commerciali, i risultati possono essere catastrofici per il discorso democratico.

Un esempio lampante citato da Noble è il rischio della disinformazione radicalizzante. Ha documentato come ricerche su temi delicati (come statistiche sul crimine o movimenti politici) potessero indirizzare gli utenti verso siti di suprematisti bianchi o fonti di odio, bypassando fonti governative, accademiche o giornalistiche accreditate. Quando gli utenti si affidano ciecamente alla “prima pagina” dei motori di ricerca – trattandola come un’enciclopedia curata – l’infiltrazione di propaganda e disinformazione codificata come “rilevante” minaccia direttamente la capacità dei cittadini di formarsi opinioni basate sui fatti. La conoscenza, in questo modello, non è un diritto, ma un prodotto esposto agli interessi di chi ha più potere economico.

Il lavoro di Safiya Noble, lungi dall’essere solo un esercizio di critica accademica, è un appello radicale per la riforma. La Noble e il suo team propongono soluzioni concrete per disinnescare la bomba algoritmica. Noble esorta i governi a riconoscere che piattaforme come Google operano come infrastrutture critiche. Come tali, devono essere soggette a una regolamentazione e a un’ audit etico che vadano oltre l’autoregolamentazione aziendale. L’obiettivo è imporre la responsabilità per i danni sociali che i loro sistemi creano.

La soluzione a lungo termine, per Noble, risiede nel disinvestimento dal modello commerciale. Lancia l’idea di motori di ricerca di interesse pubblico – istituzioni digitali finanziate e gestite con un mandato etico e democratico, sul modello delle biblioteche. Queste piattaforme sarebbero progettate esplicitamente per promuovere la pluralità, l’accuratezza e la rappresentazione equa, non il massimo profitto. Noble ha reso l’intersezionalità (il modo in cui razza, genere e classe si sovrappongono nelle esperienze di oppressione) un principio guida nell’etica dell’IA. Sottolinea che non basta eliminare un singolo bias, ma è necessario progettare attivamente per l’equità, includendo team di design e ingegneria diversificati in grado di identificare e mitigare le dinamiche discriminatorie fin dalla fase di concezione. L’eredità di Safiya Noble è quella di aver fornito il linguaggio, la prova e la cornice intellettuale per comprendere una delle crisi più urgenti dell’era digitale. La sua inchiesta dimostra in modo inequivocabile che finché gli algoritmi saranno solo strumenti di profitto, continueranno a privilegiare il potere e a codificare l’oppressione. La vera innovazione, conclude Noble, risiede nella progettazione di tecnologie al servizio della giustizia, non del capitale.

Alessio Storace