Quale etica per l’intelligenza artificiale?

Quale etica per l’intelligenza artificiale?

29.10.2018 | Dal dilemma delle auto autonome al pregiudizio algoritmico: la AI ci pone di fronte a nuove fondamentali sfide.

La via più suggestiva per affrontare le questioni etiche nel campo dell’intelligenza artificiale è probabilmente la seguente: immaginiamo un’auto che si guida da sola, davanti a lei si para improvvisamente un passante. L’auto non ha margine di frenata, può solo sterzare per evitare il pedone. In questo modo, però, finirebbe contro un palo, ferendo – forse mortalmente – il proprietario dell’auto. Quale scelta dovrebbe fare l’algoritmo? O meglio: a favore di quale scelta dovrebbe essere programmato dai produttori? E se invece di un generico pedone ci fosse un uomo molto anziano o una persona gravemente malata? La macchina potrebbe in questi casi fare valutazioni diverse? La questione è antica. È un dilemma filosofico di 50 anni fa: “il problema del carrello ferroviario”, ideato dalla filosofa inglese Philippa Ruth Foot.

Il dilemma è formulato così: un treno si trova improvvisamente di fronte cinque persone legate ai binari ferroviari. Il treno non può frenare, ma può essere deviato dall’autista su un altro binario, dove è stata legata una sola persona. Che scelta deve compiere il manovratore: azionare il comando decidendo volontariamente di uccidere una persona o scegliere di non fare nulla, e lasciare che il treno prosegua? Al dilemma sono state proposte altre varianti (per esempio, gettare giù dal treno un uomo grasso in grado di fermare – sacrificandosi – il veicolo), ma il concetto di base resta lo stesso: qual è la scelta più etica; quella utilitaristica finalizzata solo a ridurre il numero delle vittime o quella deontologica, dove il rispetto delle regole fa la differenza (ovvero la non-scelta dell’autista)?

Cinquant’anni dopo, stiamo portando questo dilemma etico a nuovi livelli con le auto che si guidano da sole. La faccenda, qui, è ulteriormente complicata da due elementi: la macchina risponde a un codice impostato da terzi; e può scegliere di uccidere anche il suo proprietario. Entrambi i punti marcano una differenza rispetto al dilemma del treno: sottraggono la scelta all’essere umano direttamente coinvolto. La questione ha un risvolto etico importante: il proprietario dell’auto perde infatti capacità di controllo su quello che in teoria dovrebbe essere un suo strumento; fino al punto di rischiare di rimetterci la vita. In questo modo, perde il potere (e anche la responsabilità) della scelta etica, che finisce spostata in un universo opaco e confuso.

Se è l’algoritmo a comandare, non è chiaro di chi sia la responsabilità della scelta. Dei programmatori? Delle aziende che li hanno istruiti e stipendiati? O forse resta comunque al proprietario, sempre consapevole di guidare un’auto autonoma? Il dilemma etico è complesso non solo per l’intreccio di attori (e responsabilità), ma anche perché il processo decisionale non è nemmeno interamente in mani umane: l’intelligenza artificiale consente infatti alle macchine di apprendere autonomamente (e non è quindi una rigida esecuzione di un codice in cui i programmatori hanno previsto tutte le situazioni possibili, assegnando a ciascuna una risposta pre-determinata).

Non si tratta di filosofia pura o fantascienza (che pure si occupa dell’etica nell’intelligenza artificiale dai tempi di Asimov e delle tre leggi della robotica). Un primo esempio concreto l’abbiamo avuto quest’anno, quando un’auto autonoma di Uber ha ucciso un passante. Le indagini hanno rilevato che l’auto non era stata in grado – in quelle particolari condizioni di luce – di identificare il passante come tale. Ma si sarebbe fermata lo stesso, da sola, se fosse stato attivo il sistema di frenaggio di emergenza. Peccato che Uber avesse scelto di disabilitarlo perché quel sistema tendeva a scattare spesso senza motivo ogni volta che non riusciva a identificare con sicurezza un oggetto (anche l’ombra di un albero sulla strada). Una scelta (inconsapevolmente?) etica – sacrificare la sicurezza dei pedoni in nome della comodità di guida – compiuta però da un attore esterno rispetto a quelli direttamente coinvolti.

L’automobile che si guida da sola, quindi, rappresenta uno strumento utile per accedere alla questione etica nell’AI. Come con tutte le semplificazioni suggestive, però, bisogna stare attenti a non farci trarre in inganno. In realtà, l’etica nell’AI riguarda già adesso una grande varietà di situazioni, anche se meno evidenti rispetto all’esempio della self driving car.

Il quadro più lucido, di recente, è arrivato da Cathy O’Neil, ex trader di Wall Street autrice di Weapons of Math Destruction, saggio che analizza il cosiddetto lato oscuro degli algoritmi. Nel testo si approfondisce soprattutto un tema: come questi sistemi già influenzino le scelte umane o addirittura scelgano al posto nostro, perlopiù nelle aziende o amministrazioni pubbliche degli Stati Uniti. Gli esempi sono tanti: gli algoritmi determinano quali lavoratori assumere o licenziare, a quali rei concedere la libertà vigilata, a quali persone concedere un mutuo, in quali quartieri concentrare le attività di polizia. E l’autrice ha evidenziato che in molti casi gli algoritmi agiscono in base a pregiudizi, a volte persino razzisti, o comunque con una freddezza (ovviamente) disumana.

Spicca il caso di Jannette Navarro, una mamma single americana che a causa delle decisioni di un algoritmo ha dovuto rinunciare a completare gli studi. È l’algoritmo che, in molti supermercati della grande distribuzione, regola i turni di lavoro, prendendo in considerazione solo le affluenze previste dei clienti. Di conseguenza, i commessi e i cassieri seguono orari irregolari, che cambiano con pochissimo preavviso. Tutto questo fa bene ai profitti, perché riduce al minimo i tempi morti, ma impedisce ai lavoratori di fare una vita normale, di seguire i propri figli o, appunto, completare gli studi.

L'algoritmo, con la illusione di oggettività e neutralità, esonera gli utilizzatori dalla responsabilità decisionale

Il problema di fondo – nota l’autrice – è che un tempo gli spazi umani di scelta e valutazione, ora soppiantati dall’algoritmo, lasciavano più margine per considerazioni etiche a favore del bene comune; o rispettose delle diverse esigenze di ciascun soggetto (quelle di una mamma lavoratrice, per esempio). L’algoritmo, con la sua illusione di oggettività/neutralità, da una parte rischia di essere accettato passivamente dalle vittime delle sue scelte; dall’altra, esonera gli utilizzatori (i datori di lavoro, per esempio) dalla responsabilità decisionale. Nel primo caso, si abdica al pensiero critico; nell’altro, al pensiero etico. In entrambi i casi, ci si nega la possibilità di mettere in discussione l’intelligenza artificiale e le sue conseguenze socio-politiche, perdendo così anche l’opportunità di migliorare l’algoritmo stesso. Così facendo, però, si amplificano i rischi e se ne riducono i benefici.

Il punto di questa sfida etica, infatti, è cogliere i vantaggi parando i rischi sociali dell’intelligenza artificiale. Restando nell’ambito delle automobili, è dimostrato che i servizi di guida autonoma (anche quelli di assistenza alla guida, già oggi in uso) possono abbattere il tasso di incidenti. Perché – banalmente – il computer non si distrae, non parla al cellulare, non supera i limiti di velocità, né tantomeno si ubriaca. Di conseguenza, anche decidere di non puntare sull’AI per paura dei suoi rischi avrebbe conseguenze etiche, per le vite umane che non si salverebbero. Come insegna la filosofia, anche la non scelta è una scelta, e come tale ha un portato etico. Si torna ancora così al dilemma del carrello.

Si pensi alle potenzialità che già ora l’AI ha nella sanità, dove può guidare le decisioni dei medici nella diagnosi e nella terapia. Ma in questa stessa sanità algoritmicamente potenziata ci sono ombre inquietanti. Come si sentirà il paziente ad apprendere dal dottore che il suo tumore non è operabile perché così l’ha stimato un algoritmo? Magari in base a fattori opachi, non noti nemmeno al dottore perché frutto di algoritmi deep learning le cui ragioni non sempre sono chiaramente individuabili (un problema noto come black box)?

Allora, come affrontare il dilemma? Una via è quella tentata, già da tempo, soprattutto negli USA, da scienziati e filosofi: provare a inserire – come ricorda il filosofo Alessio Plebe – un pensiero etico nella logica computazionale. Più di recente, la questione è stata affrontata anche sul piano normativo e istituzionale, a conferma che la questione dell’etica delle AI comincia a uscire dall’ambito dei soli addetti ai lavori. Quest’anno, la commissione europea ha avviato una task force per produrre, a breve, linee guida etiche sull’AI. Obiettivo: indicare principi e raccomandazioni a chi sviluppa algoritmi di AI e produce i relativi prodotti. Ethics by design, insomma.

In realtà, anche il recente GDPR (regolamento europeo sulla privacy, entrato in vigore a maggio 2018) contiene indicazioni “etiche” sull’uso dell’AI; tema approfondito in un recente volume a cura dell’ex Garante Privacy Franco Pizzetti). Con il GDPR, arriva un nuovo diritto per l’utente: non essere sottoposto a una decisione basata unicamente sul trattamento automatico dei suoi dati personali; quello tipico dell’intelligenza artificiale, che elabora grandi moli di dati per poi prendere decisioni. Le norme, insomma, tutelano l’utente contro la possibilità che queste decisioni possano avere conseguenze negative sulle loro vite.

Di converso, lo stesso GDPR contiene norme che facilitano l’uso corretto ed efficiente di big data da parte dell’AI, in particolare per la ricerca scientifica e la salute. Questa capacità di mettere assieme privacy e innovazione dovrebbe animare ogni futuro intervento legislativo e normativo in fatto di intelligenza artificiale, con il pieno coinvolgimento dei big tecnologici del settore.  

Il rischio più grande, evidente, è che l’AI si sviluppi senza tener conto di istanze etiche. Ossia guidata solo da interessi di parte e di mercato. L’altro rischio è che tali questioni diventino norme stringenti solo in Europa, lasciando così campo libero a paesi (come la Cina) che stanno investendo moltissimo, ma con meno scrupoli, nell’intelligenza artificiale.

l'autore
Alessandro Longo

Direttore di AgendaDigitale.eu