Un bambino di nome AI

Un bambino di nome AI

21.05.2018 | Perché dobbiamo educare l’intelligenza artificiale come fosse un figlio.

Ogni singolo aspetto della società sarà trasformato dall’avvento delle intelligenze artificiali; che guideranno le nostre automobili, eseguiranno le diagnosi mediche e decideranno come investire i nostri soldi. Non stupisce, di conseguenza, che le più grandi aziende al mondo stiano puntando sempre di più su questa tecnologia, che secondo una ricerca di Accenture può far crescere i fatturati delle aziende anche del 38% da qui al 2022, grazie agli effetti positivi della collaborazione uomo-macchina.

Non solo: l’81% dei dirigenti d’azienda è convinto che, nelle loro società, nei prossimi due anni le AI (artificial intelligence) lavoreranno al fianco degli operatori umani. L’intelligenza artificiale, in poche parole, è uno strumento trasformativo, che assumerà un ruolo sempre più centrale nelle nostre vite (in cui già facciamo affidamento sulla AI per organizzare le nostre giornate, fare ricerche su Google, trovare il prossimo film da vedere e molto altro ancora). Ma è proprio per via di questo ruolo decisivo che dobbiamo assicurarci che le intelligenze artificiali vengano progettate e utilizzate in maniera responsabile, con trasparenza e in sicurezza; per massimizzare il loro potenziale e generare fiducia nei loro confronti.

Se non si tengono in considerazione tutti questi aspetti, le conseguenze da pagare saranno molto negative. Ne abbiamo già avuto un assaggio: chatbot che diventano razzisti nel giro di 24 ore, sistemi di guida autonome che compiono gravissimi errori e algoritmi intrisi degli stessi pregiudizi degli esseri umani. Queste sono questioni importanti che devono essere affrontate già oggi; perché è solo progettando algoritmi che riflettono le nostre norme sociali in termini di responsabilità, correttezza e trasparenza che potremo sfruttare positivamente questa nuova tecnologia.

Non vorremmo mai che i nostri figli si trovassero senza una guida etica, ed è per questo che li alleviamo ed educhiamo

In un certo senso, dobbiamo “crescere bene” le nostre AI. Non vorremmo mai che i nostri figli si trovassero senza una guida etica, ed è per questo che li alleviamo ed educhiamo. Nei confronti delle AI, dobbiamo avere lo stesso approccio. Queste intelligenze artificiali, attentamente educate, non dovranno essere in grado solo di eseguire sempre più compiti e sempre più rapidamente; ma dovranno anche adattarsi ai nuovi bisogni, assorbendo i feedback ricevuti da altri sistemi nello stesso modo in cui l’educazione e la crescita consentono ai noi uomini di adattarci alle richieste sempre nuove che ci vengono poste.

Come ha scritto Jim Wilson in Human+Machine: reimagining work in the age of AI, allevare una AI a comportarsi in maniera responsabile significa affrontare molte delle sfide dell’educazione umana: insegnare a distinguere il bene dal male, fornire una conoscenza quanto più priva di pregiudizi, creare sicurezza in se stessi e contemporaneamente trasmettere il valore della collaborazione. Negli esseri umani, queste abilità vengono conquistate in tre passaggi: imparando a imparare, acquisendo l’abilità di razionalizzare e spiegare i propri pensieri e azioni, accettando la responsabilità delle nostre scelte. Le aziende dovrebbero seguire gli stessi passi quando si tratta di progettare le intelligenze artificiali.

“Basandosi su questo paradigma, le società possono iniziare a educare le AI”, scrive Paul Daugherty sul sito del Milken Institute. “Il punto di partenza, di conseguenza, sono i dati: bisogna averne il maggior numero possibile. I dati sono per le macchine ciò che il linguaggio è per gli esseri umani. Senza una conoscenza del linguaggio, gli esseri umani non possono affinare il loro apprendimento; allo stesso modo, non potranno farlo le macchine che non avranno accesso a un enorme mole di dati. Alla fine dei conti, le imprese con i dataset più ricchi avranno la possibilità di educare meglio le loro AI”.

Le società devono anche assicurarsi che ci sia un background comune di comprensione tra le AI e chi comunicherà con loro: siano essi clienti, impiegati o altri sistemi intelligenti. Ed è qui che va riposta grande attenzione: un modello errato di dati non penalizzerà solo l’apprendimento, ma rischia anche di introdurre involontariamente dei pregiudizi nel sistema. I data scientist devono avere grande consapevolezza di questo rischio e cercare di ridurlo a ogni costo; partendo dalla grande attenzione che va posta in fase di input dei dati, della loro etichettatura, catalogazione e organizzazione. Chi svolgerà correttamente questa fase avrà a disposizione delle librerie di dati da poter riutilizzare più e più volte.

Considerando l’importanza delle AI nella nostra società, c’è un vero imperativo morale che obbliga le imprese (e non solo) ad assicurarsi che i loro sistemi vengano cresciuti in maniera responsabile. E non si tratta solo di etica, ovviamente; è in questo modo che si potrà approfittare al massimo delle potenzialità di questi sistemi: affrontando le sfide che le AI ci pongono di fronte e creando sistemi responsabili e in grado di spiegare come e perché hanno preso le loro decisioni. L’obiettivo è uno solo: assicurarsi di gestire nella maniera migliore la rivoluzione digitale che ci si pone davanti.

 
l'autore
Le Macchine Volanti