fbpx Le macchine Volanti | L’intelligenza artificiale è inclusiva? Algoritmi e AI tra (nostri) pregiudizi e gender gap
L’intelligenza artificiale è inclusiva? Algoritmi e AI tra (nostri) pregiudizi e gender gap

L’intelligenza artificiale è inclusiva? Algoritmi e AI tra (nostri) pregiudizi e gender gap

23.07.2021 | Diverse ricerche evidenziano che la tecnologia e in particolare gli algoritmi che la governano non sono neutrali.

Con lo sviluppo esponenziale delle nuove tecnologie, in particolare dell’Intelligenza Artificiale, un tema emerge con forza e sorgono domande importanti: l’Intelligenza Artificiale è neutra e inclusiva? Si comporta e parla con tutti allo stesso modo? Non inizierà a riportare i bias cognitivi di chi la crea e programma? Come fare per limitare questo rischio?

Nonostante la tecnologia a volte ci sembri avere “vita propria”, è in realtà sempre pensata, progettata e sviluppata dall’uomo.

Come esseri umani presentiamo bias cognitivi, pregiudizi, e utilizziamo euristiche che ci aiutano a interpretare e semplificare la complessità del mondo che ci troviamo davanti. Nonostante questi termini abbiano nel tempo preso un’accezione negativa, possono essere considerati il frutto dell’esperienza e del contesto in cui ci si trova: i bias sono giudizi che nascono dall'interpretazione personale della realtà, attraverso le proprie lenti, e sono conseguenza di processi di pensiero che ci portano a interpretare la realtà sulla base delle informazioni - naturalmente limitate - in nostro possesso non applicando necessariamente gli strumenti della logica e della semantica.

Tra i bias più comuni ci sono, per esempio, l’affection bias, per cui tendiamo a prendere decisioni guidati più dall’emozione legata alla scelta che dalla razionalità; il confirmation bias, per cui tendiamo a preferire e a considerare come veritiere le informazioni che confermano le nostre ipotesi; l’illusion of superiority, per cui in alcune attività tendiamo spontaneamente a valutarci come superiori alla media. Questo modo di pensare e prendere decisioni può portare a errori e interpretazioni incomplete e affrettate di ciò che ci circonda, ma risulta per noi indispensabile nella gestione dell’immensa quantità di informazioni e segnali che ci arrivano dal mondo esterno.

Essendo il ragionamento algoritmico opposto a quello euristico potremmo pensare che l’Intelligenza Artificiale si comporti sempre in modo neutrale e oggettivo, proprio perché diversa da noi e in grado di prendere decisioni veloci a seguito di analisi approfondite e verifiche. In realtà non è proprio così.

Diverse ricerche evidenziano che la tecnologia e, in particolare, gli algoritmi che la governano, non sono neutrali trattandosi alla base di prodotti dell'uomo e, in quanto tali, influenzati da ideologie, culture, modi di pensare e contesti. In generale, progettiamo le reti neurali dell’AI proprio per simulare il funzionamento dell’intelletto umano.
Lampante il caso del software Compas di cui furono dotate alcune Corti Statunitensi diversi anni fa: un algoritmo progettato per aiutare i giudici nell’analizzare il rischio di recidiva delle persone in processo, al fine di stabilire una giusta pena, finì per assegnare un rischio più elevato nei confronti di soggetti condannati di origine afro-americana. Un bias algoritmico dovuto a una fallacia di addestramento imperdonabile.

Uno studio della University of Southern California dimostra, per esempio, come l’algoritmo di Facebook perpetui bias di genere. L’Intelligenza Artificiale alla base del funzionamento del social mostrerebbe a più uomini annunci per aziende a dominanza maschile e a più donne annunci per aziende a prevalenza femminile, anche se le qualifiche lavorative della persona sono le stesse.⁣

Una donna vedrebbe quindi di default più contenuti legati a temi come famiglia, gestione della casa, beauty e gioielli (anche professionalmente), mentre gli uomini riceverebbero più annunci di lavoro che ricercano figure tecniche e tecnologiche come ingegneri e programmatori.⁣

Il discorso, ovviamente, non riguarda solo le questioni di genere, ma anche quelle razziali, religiose, economiche. ⁣
Molte realtà e professionisti si stanno già muovendo per rendere gli algoritmi più inclusivi e propensi alla diversity: Joy Buolamwini, laureata al MIT che lavora con software di analisi facciale, per esempio, si sta impegnando per ridurre le discriminazioni e i pregiudizi di razza e genere. L’informatica è la fondatrice della Algorithmic Justice League, un'organizzazione che identifica e combatte i pregiudizi nei software, evidenziandone le implicazioni sociali con ricerche empiriche. Un punto fondamentale del suo lavoro riguarda la ricalibrazione dei set di dati forniti all’Intelligenza Artificiale per apprendere: immagini, dati e informazioni più varie, inclusive e rappresentative della diversity presente nella società aiutano a gettare le fondamenta di un buon addestramento della macchina.

Un altro movimento positivo a riguardo è la sempre maggiore integrazione di studi umanistici accanto a quelli tecnici/tecnologici nell’ambito dell’innovazione.

Anche l’inclusione delle minoranze meno rappresentate nelle fasi di progettazione e programmazione degli algoritmi è fondamentale affinché la tecnologia non diventi discriminante. Se solo un gruppo “dominante”, con determinate caratteristiche, pone le fondamenta dell’innovazione, la tecnologia che emergerà tenderà sempre a essere a sua immagine e somiglianza.

Esistono realtà che si occupano proprio di far sì che in questo ambito ci sia sempre più diversity e anche le minoranze siano concretamente presenti e operative. SheTech, per esempio, è un’associazione italiana che si pone l’obiettivo di coinvolgere le donne, con eventi di networking, corsi di aggiornamento, eventi e condivisione di opportunità professionali per colmare il gender gap nel mondo della tecnologia e del digitale.
Sempre più strumenti, invece, nascono con l’obiettivo di supportare persone fragili e con disabilità, spesso escluse dai processi di innovazione. Instagram ha da poco inserito nelle storie la possibilità di aggiungere sottotitoli automatici ai video parlati per facilitare la fruizione dei contenuti anche da parte di persone con problemi di udito o difficoltà visive: dietro queste opportunità ci sono proprio algoritmi di Intelligenza Artificiale. In questa direzione si stanno muovendo tutte le più importanti aziende del settore, tra cui Google, TikTok, Twitter, Microsoft, Zoom e tanti altri. Studi che porteranno l’inclusione in ambiti come quello educativo e scolastico, fornendo le stesse opportunità di crescita e apprendimento ad ogni bambino, integrando anche i più fragili.

Queste applicazioni fanno emergere chiaramente la consapevolezza che gli algoritmi sono solo strumenti nelle nostre mani, i quali possono commettere errori e presentare pregiudizi, oppure rappresentare la via d’accesso per sempre più persone fino a ora rimaste ai margini dell’innovazione e della trasformazione digitale (pensiamo solo alle difficoltà presenti per alcuni individui nel lavoro da remoto o nella didattica a distanza).

Gran parte della nostra vita oggi è permeata dalla tecnologia: questo sviluppo sta semplificando e migliorando tanti aspetti della nostra vita. Affinchè l’innovazione rimanga socialmente sostenibile sempre più realtà stanno riflettendo e progettando strumenti e metodologie in grado di rendere inclusivi gli strumenti come l’AI che, più o meno indirettamente, influenzano la nostra quotidianità, il modo in cui ci informiamo, facciamo acquisti, veniamo scelti per un lavoro, comunichiamo e ci intratteniamo.

Nuovi interessanti interrogativi da porsi per rispondere a bisogni nascenti affinchè anche l’intelligenza artificiale segua un codice etico che sia sempre ispirato alla salvaguardia della vita, della salute, della dignità e libertà dell’uomo.


Illustrazione di Sofia Romagnolo

l'autore
Laura Fasano