fbpx Le macchine Volanti | Deepfake: potenzialità, rischi e conseguenze psicologiche dell'AI che manipola la realtà
Deepfake: potenzialità, rischi e conseguenze psicologiche dell'AI che manipola la realtà

Deepfake: potenzialità, rischi e conseguenze psicologiche dell'AI che manipola la realtà

07.05.2021 | Tra potenzialità e rischi, sono diverse le conseguenze psicologiche di questo fenomeno.

Negli ultimi anni sulla Rete sono apparsi sempre più spesso video falsi in cui celebrità e politici apparivano in attività mai svolte o pronunciavano affermazioni che in realtà non avevano mai fatto.
È di qualche settimana fa la notizia del lancio di Deep Nostalgia, tool dell’azienda MyHeritage, strumento che permette di far “rivivere” e muovere brevemente i soggetti di foto scattate nel passato. È significativo il fatto che, solo nelle prime 48 ore, siano state caricate sulla piattaforma oltre un milione di foto: sicuramente siamo davanti a un trend da tenere d’occhio. Se prima servivano esperti e tecnici di effetti speciali per creare contenuti di questo tipo, oggi è molto più facile e alla portata di tutti.

Deep fake: quando l'intelligenza artificiale falsifica la realtà
Solo nel 2019, secondo un report della piattaforma Sensity, circolavano online circa 14,678 video deepfake, numero che ad oggi continua ad aumentare.
Ma come funziona questa tecnologia? Si tratta, in parole semplici, della manipolazione di immagini e video esistenti allo scopo di creare nuovi contenuti falsi utilizzando l’Intelligenza Artificiale.

Il termine deepfake deriva dalla tecnica che dà vita a questo tipo di contenuti: il deep learning, cioè l’apprendimento profondo e automatico della macchina attraverso dati appresi ed elaborati tramite algoritmi.
Cosa significa concretamente? Immaginate di filmarvi mentre raccontate una storia: utilizzerete un certo tono di voce, farete delle espressioni facciali, muoverete occhi e bocca. Prendete ora il video e datelo in pasto a un programma in grado di creare un deepfake. Quest’ultimo potrà utilizzare il vostro tono di voce, le vostre espressioni e i movimenti per manipolare e “dare” vita a un’immagine, ad esempio, della Regina Elisabetta, la quale racconterà esattamente la vostra stessa storia e si muoverà proprio come voi, pur rimanendo, all’apparenza, se stessa.

La spiegazione tecnica è, ovviamente, molto più complessa, ma il concetto è questo: una persona reale dà vita e muove a suo piacimento l’immagine di un altro individuo che ne è totalmente inconsapevole.
A tendere, probabilmente, lo sviluppo di questa tecnologia eliminerà anche la necessità di un video da cui partire per dare spazio a deepfake creati da zero, senza necessità di “attori”. Il Machine Learning consentirà all’Intelligenza Artificiale di studiare le caratteristiche comunicative di una persona per riprodurle sempre più precisamente in modo artificiale. Inoltre, si andrà gradualmente verso la creazione di deepfake live, dove il volto di un soggetto viene sostituito all’altro in diretta, senza bisogno di lunghe elaborazioni.

In questo video vediamo un famoso deepfake di Obama utilizzato a scopo divulgativo e informativo sul fenomeno. Per crearlo sono stati sufficienti due tool a disposizione di chiunque: After Effects e FakeApp (tool di machine learning di Google TensorFlow).

  

Rischi e pericoli
È facile immaginare potenziali rischi e insidie di questa tecnologia. I cybercriminali possono, ad esempio, sfruttare i deepfake per creare video che inducano a compiere determinate azioni in loro favore o, in generale, elaborare truffe più o meno pericolose.
L’episodio dell’ irruzione al Congresso degli Stati Uniti che a gennaio ha visto coinvolti Trump e numerosi manifestanti ha ribadito la capacità persuasiva dei social network. Pensiamo quindi alle conseguenze negative che potrebbe avere un video manipolato che sfrutta la forza comunicativa e l’immagine di un personaggio noto per diffondere un messaggio falso e dannoso.
Possiamo immaginarci i deepfake come una nuova frontiera della disinformazione, un’arma ancora più pericolosa e difficile da riconoscere delle “semplici” fake news.
Preoccupano anche i possibili effetti manipolativi sul mercato azionario, nel mondo politico, all’ambito giudiziario (sarà sempre più difficile distinguere tra testimonianze vere e “falsate”) e alle conseguenze sociali (creazione di video a scopo diffamatorio, revenge porn, etc.).

Dal lato psicologico dell’utente, con il tempo, imparando a riconoscere i falsi sui social network, è venuta meno la fiducia rispetto all’autenticità delle immagini (Westling, 2019) ma tendiamo a riporre ancora molta fiducia nelle voci e nei video che osserviamo (Brucato, 2015). Secondo diverse ricerche psicologiche è proprio per questo che i deepfake riescono facilmente ad ingannarci.

Non solo scherzi e fake news: usi positivi di questa tecnologia
Come per qualsiasi strumento, tecnologico e non, potenzialità e rischi dipendendono dall’utilizzo che si sceglie di farne. I software utilizzati per i deepfake hanno anche un’utilità positiva e concreta nella quotidianità: dal miglioramento della qualità delle immagini nelle app di messaggistica (l’IA potrebbe completare e migliorare video di qualità scadente a causa di cattiva connessione), alla creazione digitale di discorsi storici in alta definizione o in ologrammi e riproduzione di personaggi celebri (magari utilizzati con intento educativo nelle scuole o nei musei, come quello che ritrae Abramo Lincoln qui).

È anche importante comprendere che i deepfake e i software per riconoscerli sono due facce della stessa tecnologia: il deep learning, utilizzato nel primo caso in modo negativo (generatore di deepfake) e nel secondo positivo (discriminatore di immagini false). Come continueranno a svilupparsi i primi, così miglioreranno anche le strategie per smascherarli.

È possibile riconoscere i deepfake e limitare i loro rischi?
Per vivere con serenità la nostra vita digitale possiamo partire da una consapevolezza a cui tenerci ben saldi: non tutto ciò che vediamo, sentiamo o leggiamo sul web rappresenta la realtà. Oggi anche i video possono mentire.
Partendo da questo presupposto, un occhio allenato a riconoscere pericoli e truffe, insieme all’esercizio del pensiero critico sono le armi più forti a nostra disposizione.
Nello specifico, sapendo dell’esistenza di questa tecnologia possiamo iniziare a porci domande su ciò che vediamo online e a riconoscere stranezze o particolarità caratteristiche di immagini e video falsi. Il che ci porta a un altro importante punto: l’educazione sulla ricerca e sul trattamento delle informazioni in rete, l’attenzione costante alle fonti da cui provengono i contenuti.

Curiosità, voglia di informarsi e di capire e coraggio di affrontare i cambiamenti sono tre elementi che ci consentono di cavalcare l’onda dell’innovazione senza esserne travolti.

l'autore
Laura Fasano