Paolo Benanti | Anche l’intelligenza artificiale va decolonizzata

di Pier Maria Mazzola
BLM-AI
Tempo di lettura stimato: 6 minuti

Shakir Mohamed, un ricercatore sudafricano di AI, mette il dito sulla piaga della “colonialità” di cui è portatrice l’intelligenza artificiale. Il suo pensiero è qui presentato da uno studioso delle questioni “algor-etiche” che l’era digitale pone.

Nel marzo 2015, all’Università di Città del Capo in Sudafrica sono scoppiate proteste contro la statua del colonialista britannico Cecil Rhodes. Rhodes, un magnate minerario che aveva donato la terra su cui era stata costruita l’università, aveva commesso un genocidio contro gli africani e gettato le basi per l’apartheid. Sotto la bandiera della manifestazione “Rhodes Must Fall”, gli studenti hanno chiesto che la statua fosse rimossa. Le loro proteste hanno innescato un movimento globale per sradicare le eredità coloniali che persistono nell’istruzione.

Gli eventi hanno anche spinto Shakir Mohamed, un ricercatore sudafricano di intelligenza artificiale (AI) a DeepMind, a riflettere su quali eredità coloniali potrebbero esistere anche nella sua ricerca. Nel 2018, proprio mentre il campo dell’AI stava iniziando a fare i conti con problemi come la discriminazione algoritmica, Mohamed ha scritto un post sul suo blog con i suoi pensieri iniziali. In esso ha invitato i ricercatori a «decolonizzare l’intelligenza artificiale», a riorientare il lavoro del campo lontano da hub occidentali come la Silicon Valley e coinvolgere nuove voci, culture e idee per guidare lo sviluppo della tecnologia.

Ora, sulla scia delle rinnovate grida per “Rhodes Must Fall” nel campus dell’Università di Oxford, spronate dall’omicidio di George Floyd e dal movimento antirazzista globale, Mohamed ha pubblicato un nuovo documento insieme al suo collega William Isaac e alla studentessa dottorale di Oxford Marie-Thérèse Png. In questo nuovo testo, ripreso anche da Technology Review, la rivista del Mit, Mohamend completa le idee originali con esempi specifici di come le sfide etiche dell’AI sarebbero radicate nel colonialismo e presenta strategie per affrontarle cominciando con il riconoscere quella storia.

Come si manifesta la mentalità coloniale nell’AI

Sebbene il colonialismo storico possa essere finito, i suoi effetti esistono ancora oggi. Questo è ciò che gli studiosi chiamano “colonialità”: l’idea che i moderni squilibri di potere tra razze, paesi, ricchi e poveri e altri gruppi siano ancora presenti. Si veda quello che prende il nome di razzismo strutturale. All’interno di questa visione si riconosce come storicamente gli europei avrebbero originariamente inventato il concetto di razze e le differenze tra loro per giustificare la tratta degli schiavi africani e quindi la colonizzazione dei Paesi africani. Negli Stati Uniti, gli effetti di quell’ideologia possono ora essere rintracciati attraverso la storia della schiavitù del paese, Jim Crow e la brutalità della polizia.

Allo stesso modo, sostengono gli autori dell’articolo, questa storia coloniale spiega alcune delle caratteristiche e degli impatti più preoccupanti dell’AI. All’interno di questo studio vengono identificate cinque manifestazioni di colonialità.

Discriminazione algoritmica e oppressione. I legami tra discriminazione algoritmica e razzismo coloniale sono forse i più ovvi: gli algoritmi costruiti per automatizzare le procedure e formati sui dati all’interno di una società razzialmente ingiusta finiscono per replicare questi risultati razzisti nei loro risultati. Ma gran parte degli studi su questo tipo di danno prodotto dall’AI si concentra su esempi accaduti negli Stati Uniti. Esaminarlo nel contesto della colonialità, consente una prospettiva globale: l’America non è l’unico posto con disuguaglianze sociali. «Ci sono sempre gruppi che vengono identificati e profilati», dice Isaac.

Il fenomeno del lavoro fantasma, il lavoro di dati invisibili richiesto per supportare l’innovazione dell’AI, estende nettamente la relazione economica storica tra colonizzatore e colonizzato. Molte ex colonie degli Stati Uniti e del Regno Unito – Filippine, Kenya e India – sono diventate centri di lavoro fantasma per aziende statunitensi e britanniche. Le forze di lavoro a basso costo e di lingua inglese di quei Paesi, che li rendono ideali per il lavoro sui dati, esistono a causa delle loro storie coloniali.

A volte i sistemi di intelligenza artificiale vengono provati su gruppi più vulnerabili prima di essere implementati per utenti “reali”. Cambridge Analytica, ad esempio, ha sottoposto a beta test i suoi algoritmi sulle elezioni nigeriane del 2015 e del 2017 in Kenya prima di utilizzarli negli Stati Uniti e nel Regno Unito. Gli studi successivi hanno scoperto che questi esperimenti hanno interrotto attivamente il processo elettorale del Kenya e hanno eroso la coesione sociale. Questo tipo di test riecheggia il trattamento storico delle colonie da parte dell’Impero britannico come laboratori per nuovi farmaci e tecnologie.

Governance dell’AI. Gli squilibri di potere geopolitico che l’era coloniale ha lasciato dietro di sé modellano attivamente anche la governance dell’AI. Ciò si è verificato nella recente corsa alla formazione di linee guida etiche globali sull’intelligenza artificiale: i Paesi in via di sviluppo in Africa, America Latina e Asia Centrale sono stati in gran parte esclusi dalle discussioni, il che ha portato alcuni a rifiutarsi di partecipare agli accordi internazionali sul flusso di dati. Il risultato: i Paesi sviluppati continuano a beneficiare in modo sproporzionato di norme globali modellate a loro vantaggio, mentre i Paesi in via di sviluppo continuano a rimanere più indietro.

Infine, gli stessi squilibri di potere geopolitico influenzano il modo in cui l’AI viene utilizzata per assistere i Paesi in via di sviluppo. Le iniziative “AI for good” o “AI for sustainable development” sono spesso paternalistiche. Costringono i Paesi in via di sviluppo a dipendere dai sistemi di AI esistenti piuttosto che partecipare alla creazione di nuovi sistemi progettati per il proprio contesto.

I ricercatori osservano che questi esempi non sono completi, ma dimostrano quanto siano vaste le eredità coloniali nello sviluppo globale dell’AI. Inoltre, legano insieme quelli che sembrano problemi disparati sotto un’unica tesi unificante. «Ci consente una nuova grammatica e vocabolario per parlare sia del motivo per cui questi problemi sono importanti sia di cosa faremo per pensare e affrontare questi problemi a lungo termine», afferma Isaac.

Come costruire un’AI decoloniale

Il vantaggio di esaminare gli impatti dannosi dell’AI attraverso questa lente, sostengono i ricercatori, è il quadro che fornisce per prevedere e mitigare i danni futuri. Png crede che non esista davvero nulla come “conseguenze non intenzionali”, solo le conseguenze dei punti ciechi che le organizzazioni e gli istituti di ricerca hanno quando mancano di rappresentazioni diverse.

In questo senso, i ricercatori propongono tre tecniche per ottenere un’AI “decoloniale”, o più inclusiva e vantaggiosa.

Sviluppo tecnico sensibile al contestoIn primo luogo, i ricercatori di intelligenza artificiale che creano un nuovo sistema dovrebbero considerare dove e come verrà utilizzato. Il loro lavoro, inoltre, non dovrebbe terminare con la scrittura del codice, ma dovrebbe includere il suo test, il supporto di politiche che ne facilitano l’uso corretto e l’organizzazione di azioni contro quelli impropri.

Tutela inversaSecondo, dovrebbero ascoltare i gruppi emarginati. Un esempio di come farlo è la pratica, al momento in erba, dell’apprendimento automatico partecipativo, che cerca di coinvolgere le persone più colpite dai sistemi di apprendimento automatico nella loro progettazione. Ciò offre ai diversi soggetti la possibilità di mettere in discussione e stabilire come vengono inquadrati i problemi di apprendimento automatico, quali dati vengono raccolti e come e dove vengono utilizzati i modelli finali.

Solidarietà. I gruppi emarginati dovrebbero anche ricevere il supporto e le risorse per avviare il proprio lavoro sull’AI. Esistono già diverse comunità di professionisti dell’AI emarginati, tra cui Deep Learning Indaba, Black in AI e Queer in AI, e il loro lavoro dovrebbe essere amplificato.

Da quando hanno pubblicato il loro articolo, dicono i ricercatori, hanno riscontrato un enorme interesse ed entusiasmo. «Almeno mi segnala che c’è una ricettività in questo lavoro – dice Isaac –. Sembra che questa sia una conversazione con cui la comunità vuole iniziare a impegnarsi».

Cosa annotare da questa lettura

Pensare un’algor-etica significa quindi pensare a uno sviluppo dell’innovazione. Utilizzare eticamente la tecnologia oggi significa cercare di trasformare l’innovazione in sviluppo. Significa indirizzare la tecnologia verso e per lo sviluppo e non semplicemente cercare un progresso fine a sé stesso. Sebbene non sia possibile pensare e realizzare la tecnologia senza delle forme di razionalità specifiche (il pensiero tecnico e scientifico), porre al centro dell’interesse lo sviluppo significa dire che il pensiero tecnico-scientifico non basta a sé stesso. Servono diversi approcci, compreso quello umanistico e il contributo della fede.

Lo sviluppo necessario per affrontare le sfide del cambio d’epoca dovrà essere:

  • Globale, ovvero per tutte le donne e per tutti gli uomini e non solo di qualcuno o di qualche gruppo (distinto per sesso, lingua o etnia);
  • Integrale, ovvero di tutta la donna e di tutto l’uomo;
  • Plurale, ovvero attento al contesto sociale in cui viviamo, rispettoso della pluralità umana e delle diverse culture;
  • Fecondo, ovvero capace di porre le basi per le future generazioni, invece che miope e diretto all’utilizzo delle risorse dell’oggi senza mai guardare al futuro;
  • Gentile, ovvero rispettoso della terra che ci ospita (la casa comune), delle risorse e di tutte le specie viventi.

Per la tecnologia e per il nostro futuro abbiamo bisogno di uno sviluppo che sinteticamente vorrei definire gentile. L’etica è questo e le scelte etiche sono quelle che vanno nella direzione dello sviluppo gentile.


Paolo Benanti per SettimanaNews
Paolo Benanti

Paolo Benanti, francescano del Terzo Ordine Regolare, si occupa di etica, bioetica ed etica delle tecnologie. I suoi studi si focalizzano sulla gestione dell’innovazione internet e l’impatto del Digital Age, le biotecnologie per il miglioramento umano e la biosicurezza, le neuroscienze e le neurotecnologie. Qui il suo blog.

Condividi

Altre letture correlate:

X