fbpx Le macchine Volanti! | Robot ed espressioni facciali
Robot ed espressioni facciali
--

Robot ed espressioni facciali

I robot antropomorfi sono già in grado di parlare, di camminare, di correre, di sollevare e spostare pesi, persino di dipingere e di fare parkour, ma ancora manca loro qualcosa perché possano emulare l’essere umano in modo del tutto fedele e convincente: una riproduzione verosimile delle espressioni facciali. Il Creative Machines Lab della Columbia Engineering è impegnato per colmare anche questa lacuna, facendo leva sulle potenzialità degli algoritmi di intelligenza artificiale, delle reti neurali e delle tecniche di deep learning.

Robot, IA ed espressioni facciali
L’obiettivo dichiarato è quello di migliorare i sistemi posti al servizio dell’interazione tra la componente umana e quella tecnologica, al fine di poter arrivare alla realizzazione di unità da impiegare nel sociale e per l’assistenza alla persona, un’esigenza avvertita in particolar modo nel periodo più duro e difficile della crisi sanitaria, quando molti si sono visti costretti, in modo forzato, a fare i conti con l’isolamento; il rapporto diretto è per ovvie ragioni venuto meno.

Fino a oggi, per far sì che una macchina potesse replicare un sorriso, uno sguardo sorpreso o un viso arrabbiato, si è stati obbligati a programmare i singoli movimenti necessari per far assumere una determinata piega alle labbra o un preciso taglio agli occhi. Il progetto in questione mira invece a renderlo un automatismo, sulla base del contesto e della mimica di chi si trova di fronte al robot, così da infondere in lui fiducia. Nel prototipo, l’osservazione è eseguita da un dispositivo simile a una webcam, con il flusso video analizzato da un calcolatore che, di conseguenza, agisce su un complesso sistema hardware composto da 42 piccoli motori, collegati ognuno a una specifica porzione della pelle sintetica, per ottenere l’effetto desiderato. Il tutto in tempo reale e in modo dinamico.

Prende così vita EVA, capace di riprodurre le emozioni primarie di rabbia, disgusto, paura, gioia, tristezza e sorpresa, oltre a una serie di sfumature intermedie, in modo da non restituire l’impressione di un feedback preconfezionato. L’approccio adottato per l’addestramento è quello del reinforcement learning: agli algoritmi viene ordinato di eseguire una determinata azione, poi di valutarne la conformità rispetto a quanto atteso, correggendo le imperfezioni e procedendo di nuovo daccapo. Più nel dettaglio, nel primo step è stato chiesto al sistema di replicare espressioni casuali, in modo da calibrare ogni attuatore (di fatto i suoi muscoli facciali), per poi sfruttare le informazioni acquisite al fine di giungere al risultato finale.

Secondo i responsabili dell’iniziativa, la più difficile delle attività umane da automatizzare è quella che coinvolge movimenti fisici non ripetitivi che si verificano in contesti sociali complessi; insomma, ciò che si fa quotidianamente, in modo naturale e involontario, trovandosi in mezzo agli altri. L’obiettivo dell’apparato hardware e software messo a punto dal Creative Machines Lab è proprio questo: leggere e interpretare le condizioni che definiscono l’ambiente circostante e il comportamento di chi lo anima, per poi reagire e interagire di conseguenza, nel modo meno artificioso possibile.

Il progetto è per ora confinato entro le mura di un laboratorio e non sono previste applicazioni commerciali, almeno nel breve periodo. Non dovremo dunque a stretto giro fare i conti con qualcosa di simile agli androidi di Philip K. Dick o alle situazioni da sitcom di Super Vicky, ma ancora una volta la scienza sembra trarre ispirazione dalla fantascienza. È quando lo fa a beneficio di tutti, che è lecito parlare di innovazione.

Cristiano Ghidotti