L'etica delle intelligenze artificiali

L'etica delle intelligenze artificiali

02.10.2017 | Lo sviluppo delle AI ci pone di fronte a pressanti questioni, ma è importante restare con i piedi per terra.

Intelligenze artificiali che hanno il compito di diagnosticare correttamente il tumore della pelle, algoritmi che si occupano di guidare le auto autonome e software-avvocati che svolgono compiti sempre più importanti all’interno degli studi legali. Con il passare del tempo, le responsabilità che affidiamo alle AI (artificial intelligence) stanno diventando sempre maggiori, andando ben oltre il semplice riconoscimento facciale di Facebook o i suggerimenti per gli acquisti di Amazon. Un progresso tanto affascinante quanto ricco di incognite, e che porta inevitabilmente a porsi una domanda: non rischiamo di cedere il controllo sulle nostre vite a delle creature tecnologiche? “Ogni volta che si deresponsabilizza l’uomo e si delegano compiti delicati a degli agenti artificiali è necessario affrontare con attenzione numerosi aspetti”, spiega a Le Macchine Volanti Luciano Floridi, filosofo dell’Informazione di Oxford. “Va detto, però, che non è la prima volta che l’uomo si trova in questa situazione; basti pensare alla burocrazia: un oscuro apparato che prende per noi decisioni che spesso non siamo in grado di capire. Oggi, con l’intelligenza artificiale, questo slittamento tra decisione del sistema e comprensione dell’uomo si sta però acuendo moltissimo”.

Un primo ostacolo, quando si affidano compiti delicati alle macchine, è infatti la difficoltà nel capire cosa sia successo quando qualcosa non va per il verso giusto: può essere il caso di una diagnosi robotica sbagliata o di un errore fatale nella guida automatica di una self driving car. Come si fa a capire che cosa ha causato l’errore di un’intelligenza artificiale, che prende le sue decisioni in base a calcoli complicatissimi e per noi quasi impossibili da decifrare? Un problema, noto come “black box”, che potrebbe suggerire di usare molta cautela nel delegare alcuni delicati compiti alle AI: “Ma pensare di ritornare sui nostri passi è impossibile, ormai quella sponda l’abbiamo abbandonata. Quel che possiamo fare è invece sfruttare la capacità delle tecnologie digitali di lavorare con se stesse, di automigliorarsi e autoripararsi”, prosegue Floridi. “Forse dovremmo iniziare a pensare a sistemi complessi che controllano altri sistemi complessi”.

Messa così, sembra quasi che l’uomo debba abbandonare completamente la guida della nave, lasciando che siano le intelligenze artificiali a controllare altre intelligenze artificiali. Considerando i vari timori suscitati dagli scenari da “rivolta dei robot” che periodicamente riemergono, è facile immaginare che una visione di questo tipo possa incontrare numerosi oppositori. “Il problema, in verità, è che al momento siamo fermi a metà strada: non ci troviamo né dalla parte della responsabilità individuale, né in quella della co-responsabilità tecnologicizzata. Se abbracciamo questa seconda via, scopriremo che la supervisione delle macchine è la via migliore per costruire un sistema efficace”, spiega sempre il filosofo di Oxford. “L’importante è che l’ultimo controllo rimanga sempre nelle mani dell’individuo, o meglio: della società. In questo modo, se le cose non stanno andando nella direzione giusta, si può sempre decidere di cambiarla. Il genio umano sta in questo, nella capacità di scegliere la direzione e la strategia. Possiamo invece tranquillamente lasciare che siano le nuove tecnologie a scegliere come e a quale velocità procedere; anche perché lo sanno fare meglio di noi e, anzi, le stiamo costruendo proprio per questo”.

 
Se la prima scelta è giusta (nel caso di un’auto autonoma, sterzare per non investire una persona), ma questa finisce per avere un esito negativo, significa che è avvenuto qualcosa di tragico che non si poteva prevedere o evitare

La sensazione, però, è che ogni volta che vengono delegate maggiori responsabilità a una AI, l’uomo perda una parte di libertà; o almeno la capacità di avere sotto controllo non solo il quadro generale, ma anche i dettagli. “È vero, alcune libertà non le abbiamo più. Per fare un esempio semplice, la tecnologia di frenata assistita ci priva della libertà di pestare sul freno e inchiodare brutalmente; ma è una libertà importante da avere? Le libertà che dobbiamo conservare sono quelle relative all’ultimo controllo, che continuano a essere saldamente nelle nostre mani. Abbiamo solamente spostato l’asticella un po’ più in alto”. In quest’ottica, inoltre, la deresponsabilizzazione dell’uomo può avere un ulteriore aspetto positivo: permettergli di concentrarsi esclusivamente sulle questioni più complesse e interessanti, dove la dimensione umana è indispensabile e non può essere sostituita dalle macchine, liberandolo così da compiti che non gli riescono al meglio.

Un esempio utile è quello delle auto autonome: le vetture guidate da software intelligenti che promettono di salvare un enorme numero di vite, riducendo drasticamente gli incidenti ed esentando l’uomo da un’incombenza – guidare l’auto – per la quale evidentemente è meno portato delle AI. Ciononostante, questa nuova tecnologia (che inizieremo a vedere per le strade nel giro di pochi anni) pone alcune delle questioni più urgenti, tra cui l’ormai celebre versione del “dilemma del carrello”. Sintetizzando al massimo: se l’auto autonoma si dovesse trovare di fronte a un imprevisto, come potrebbe decidere se investire la persona che gli si è parata davanti all’improvviso oppure se sterzare di colpo, con il rischio di causare involontariamente un danno ancora più grave, magari travolgendo un gruppo di persone? “Personalmente, penso che questa discussione sia una distrazione inutile”, spiega Floridi in uno dei punti centrali della nostra chiacchierata. “È un problema che è già stato risolto da Tommaso D’Aquino nel XIII secolo e che in epoca contemporanea è stato sollevato dalla filosofa Philippa Foot per ragioni molto serie. La questione è semplice: se la prima scelta è giusta (nel caso di un’auto autonoma, sterzare per non investire una persona), ma questa finisce per avere un esito negativo, significa che è avvenuto qualcosa di tragico che non si poteva prevedere o evitare. Accartocciarsi su mille discorsi, variabili e quant’altro può essere un divertente esercizio intellettuale, ma non ha ricadute pratiche; almeno se vogliamo affrontare questioni serie”.

E le questioni serie ci sono, eccome: “Ciò che dobbiamo capire è come evitare di trovarci in una situazione in cui le alternative sono una peggio dell’altra e, nel caso in cui avvenga un guaio, come allocare la responsabilità”, spiega Floridi. Nel caso delle self driving cars, per esempio, potrebbe essere utile decidere di non sviluppare mai le auto autonome di livello 5 (ammesso che sia possibile): quelle senza freni, senza volante, in cui l’uomo è solo un ospite. “Come detto, il controllo ultimo deve sempre restare nelle mani dell’uomo, che deve in qualunque momento poter schiacciare un bottone che spegne tutto e che, più in generale, deve decidere che cosa si vuole sviluppare e che cosa è invece meglio lasciar perdere. Quel che conta di più è che si salverebbero un sacco di vite, perché oggi ad ammazzare gli esseri umani siamo noi stessi quando ci mettiamo al volante. Quindi, dobbiamo decidere: vogliamo salvare mille vite o ne vogliamo salvare diecimila? Se vogliamo salvarne diecimila allora ci affideremo alle auto autonome, sapendo che qualcuno si dovrà assumere la responsabilità del fatto che mille persone moriranno lo stesso; perché quando si parla di scelte etiche non si vince mai 1 a 0, semmai si vince 2 a 1”.

 

I cinque livelli delle auto autonome.

Una visione realistica e abbastanza fuori dagli schemi – considerando quanto anche i colossi dell’automobilismo si stiano arrovellando su dilemmi e incognite – ma che sta facendo presa, vista la chiarezza dalle linee guida etiche per le auto autonome elaborate in Germania dal ministero dei Trasporti. Delle linee guida – le prime al mondo che regolano questo settore – che affermano che la priorità vada sempre data alle vite umane, rispetto ad animali e oggetti, e che l’uomo debba sempre avere il potere di sottrarre il comando alla macchina. Tutto molto semplice; forse troppo semplice? Nel report è spiegato chiaramente perché si sia giunti a una visione così in bianco e nero: decidere ogni volta se salvare una vita piuttosto che un’altra – come richiesto dalla versione “self driving” del dilemma del carrello – non è possibile, perché è una valutazione che dipende da situazioni molto specifiche, che sono influenzate anche da comportamenti imprevedibili e che, di conseguenza, non possono essere chiaramente standardizzate o programmate.

“Era la strada giusta da seguire: queste linee guida sono serie e ragionevoli”, conferma Floridi. “È anche bello che questo documento arrivi dalla Germania, che è una delle grandi produttrici di auto, e quindi dall’Europa. Permettimi di dire che si tratta in effetti di un documento molto kantiano e poco utilitarista, che potrebbe dare la spinta giusta a molti altri settori dell’automazione e dell’intelligenza artificiale”.

Risolto il problema del carrello, rimane però sul piatto un’altra enorme questione: quella della responsabilità in caso di incidenti, ma anche in caso di diagnosi sbagliate o di documenti legali analizzati erroneamente da un software. Di chi è la colpa, insomma, se un algoritmo, sbagliando, diagnostica una cura errata o manda in galera un innocente: del software, del proprietario o dell’azienda produttrice? “Bisogna partire dal concetto di responsabilità oggettiva, già oggi usato per prodotti di uso comune, che prevede che in caso di malfunzionamento serio sia il costruttore a dover dimostrare la sua innocenza. Penso che nel caso delle AI la direzione da prendere sia questa: non sta a me dimostrare che sia tu il responsabile, ma a te dimostrare la tua innocenza”, spiega Floridi. “Una seconda analogia risale addirittura al diritto romano e riguarda il rapporto tra padrone e schiavo nell’antica Roma: nonostante lo schiavo sia ovviamente più intelligente di qualsiasi robot noi potremo mai costruire, quando questi commetteva un crimine la responsabilità legale ed economica ricadeva sul proprietario. I romani sapevano benissimo che se avessero scaricato tutte le colpe sugli schiavi, questi sarebbero stati completamente deresponsabilizzati; in questo modo, invece, ci si assicurava che il padrone stesse attento e tenesse la situazione sotto controllo. Il che, ovviamente, non impediva che lo schiavo finisse crocifisso…”.

 

Meccano Max: uno dei tanti robot-giocattoli da compagnia che stanno iniziando a diffondersi, sollevando numerose preoccupazioni.

Quindi: le aziende produttrici avranno sempre il compito di dimostrare la loro estraneità da qualunque pasticcio causato da un robot; così come il proprietario non potrà essere sollevato dalle sue responsabilità. L’unica cosa certa è che la colpa non potrà mai venir cercata nel robot o nel software stesso: “Per questo la decisione del Parlamento Europeo di iniziare a parlare dei robot più sofistica come di ‘persone elettroniche’ rischia di essere un errore, perché potrebbe prefigurare anche una loro eventuale responsabilità”, spiega sempre il docente di Oxford. “Quel che invece è certo, è che tutti gli altri attori in gioco tenderanno a scaricare le responsabilità sugli altri; da un punto di vista legale, ne vedremo delle belle”.

Quali questioni etiche si aprono, invece, se si pensa alla prossima invasione dei robot-compagni di gioco, che terranno compagnia ai bambini e potrebbero addirittura assistere alla loro crescita? Da una parte, c’è chi pensa ai risvolti positivi (per esempio, alleviare la solitudine di alcuni) di questi giocattoli già in commercio e che col tempo diventeranno sempre più sofisticati e diffusi; dall’altra, c’è chi ritiene che affidare un ruolo così delicato a delle macchine create per scopi commerciali possa nascondere parecchi rischi, tra cui quello di una sorta di “lavaggio del cervello” per scopi aziendali. Senza esagerare nelle preoccupazioni, è comunque il caso di non abbassare la guardia: “Per esempio, a chi appartengono le interazioni che il bambino ha con il robot?”, si chiede Floridi. “Ovviamente, all’azienda che l’ha prodotto; così com’è il caso di Alexa, Cortana e tutti gli altri assistenti virtuali che utilizziamo quotidianamente. Se un bambino gioca con questi robot dai 5 ai 10 anni, le macchine sapranno tantissime cose di lui: se è uno che se la prendeva quando perdeva; se è un bambino socievole o meno; se magari gli piace vestirsi da bambina. Tutti dati estremamente sensibili che potrebbero tornare utili in futuro all’azienda che li ha raccolti. Non facciamoci false illusioni: se una società può raccogliere dei dati, poi troverà il modo di usarli”.

 

Considerando l’entità dei problemi che dobbiamo affrontare parlando di intelligenze artificiali già oggi esistenti o comunque distanti solo qualche anno, viene da tremare al pensiero delle questioni che potrebbero aprirsi qualora si arrivasse davvero alla Strong AI: un’intelligenza artificiale in tutto e per tutto al livello dell’uomo. “Se vogliamo parlare di fantascienza facciamolo, ma sia chiaro che di fantascienza si tratta”, taglia corto Floridi (con buona pace di Elon Musk e Stephen Hawking): “Nei laboratori di oggi ci sono macchine che per capire la differenza tra un coltello e una forchetta hanno bisogno di una quantità immensa di dati. Se poi voglio insegnare loro a riconoscere un mestolo, devo ricominciare da capo. Come si possa passare da questo livello ad avere Data di Star Trek, è qualcosa che non sa spiegare nessuno. È come se contassimo da uno a due, per poi saltare all’improvviso a mille. Per questa ragione, uno dei compiti della filosofia è anche quello di riportare le persone con i piedi per terra. Guardiamo alla realtà: oggi nessuno ha ancora passato davvero il test di Turing e non abbiamo alcuna idea di come funzioni il cervello… Le AI possono guidare una macchina, trovare il biglietto meno caro per un concerto, vincere a scacchi; ma diventare come noi, proprio no”.

Da un certo punto di vista, si tratta di una visione rassicurante, che in quest’epoca di progressi tecnologici e scientifici che procedono a una velocità esasperata, ci pone di fronte a una realtà che ridimensiona le ambizioni umane: “Oggi non sappiamo come costruire una vera intelligenza artificiale anche perché non conosciamo il funzionamento del cervello. Ci sono cose che, semplicemente, potrebbero essere al di là dei nostri limiti e magari non scopriremo mai. Siamo pur sempre esseri umani, dobbiamo imparare ad accettarlo”.

 
l'autore
Andrea Daniele Signorelli

Milanese, classe 1982, si occupa del rapporto tra nuove tecnologie, politica e società. Scrive per La Stampa, Wired, Il Tascabile, Pagina99 e altri. Nel 2017 ha pubblicato “Rivoluzione Artificiale: l’uomo nell’epoca delle macchine intelligenti” per Informant Edizioni. Su Twitter: @signorelli82