Deepfake video, la nuova frontiera delle “bufale” incubo di vip, star e politici

Il “vaso di Pandora” è stato aperto agli inizi del 2018, sulla piattaforma Reddit. Un utente, il cui nickname è “deepfake”, ha iniziato a diffondere e condividere alcuni video realizzati con una nuova app da lui inventata. Video in grado di diffondere fake news.

Oggi, a distanza di pochi mesi, la rete ne è letteralmente invasa. Si chiamano “deepfakes“, come il primo utente che ha cominciato a diffonderli. In pochi mesi, come accade spesso per le novità lanciate sul web, la nuova moda si è diffusa a livello planetario.

Gli scienziati hanno sviluppato un software basato sull’intelligenza artificiale per smascherare i “deepfake video” ma, a loro insaputa, hanno contribuito a far esplodere il fenomeno. Lo stesso software, infatti, così come è in grado di individuare i video fasulli, può anche generarli e diffonderli. Si tratta di una nuova generazione di video, assai più precisi e difficili da distinguere da quelli veri.

Ma come funzionano? La tecnologia si basa sulla sintesi di immagini in grado di convertire virtualmente, in modo impeccabile, il contenuto di un video in un altro. In un deepfake video, è possibile far proferire a un politico o a un personaggio pubblico parole e frasi che non ha mai detto. Ma l’ulteriore rivoluzione sta nel fatto che si tratta di prodotti che possono essere realizzati direttamente dal computer, senza bisogno di un tecnico programmatore. In pratica, è possibile ricostruire i movimenti del corpo, oppure le espressioni facciali di un soggetto. In questo modo, Vladimir Putin può diventare Donald Trump e viceversa.

Ma è possibile anche diffondere in rete filmati “a luci rosse” di personaggi pubblici e star, estremamente verosimili. E’ già successo e succede ogni giorno. La principali piattaforme web sono corse ai ripari cercando di arginare il fenomeno, ma la guerra sembra davvero disperata. La qualità del processo finale rende quasi impossibile smascherare il fake. Ma ci sono anche degli aspetti positivi, perché questi software possono essere utili a game designer, creativi o registi per ricostruire dettagli sempre più accurati degli ambienti digitali. Oppure possono essere usati per migliorare la tecnologia a guida autonoma. Il concetto è sempre lo stesso: la tecnologia non è mai positiva e negativa a priori. Dipende dall’uso che se ne fa.

E per chi pensa si stia esagerando rispetto alla pericolosità del fenomeno, basti pensare a quello che è successo recentemente durante la conferenza stampa post elezioni di midterm del presidente americano Donald Trump, nuovo capitolo della “guerra” in corso tra media e Casa Bianca. Il presidente ha aggredito verbalmente il reporter della Cnn, Jim Acosta, che gli stava facendo una domanda. Trump ha quindi chiesto ad una stagista di togliere il microfono al reporter, che si è rifiutato. Nel video post evento diffuso dalla Casa Bianca, si vede il giornalista reagire con forza al gesto della stagista di sottrargli il microfono. La portavoce del presidente Sarah Sanders ha accusato Acosta di aver “messo le mani addosso” alla collaboratrice della Casa Bianca portando un video come prova. Peccato che il video si è dimostrato un fake. Sarebbe stato modificato ad arte per attaccare il giornalista. Alcuni frame sono stati velocizzati per dare idea di un contatto tra il reporter e la stagista. Contatto che non c’è mai stato. Altro esempio di fake news è la video-intervista taroccata all’ex presidente olandese dell’Eurogruppo Jeroen Dijsselbloem. Le sue dichiarazioni sono state “mascherate” da una voce fuori-campo in cui si descriveva un complotto internazionale volto a  mandare in crisi l’economia italiana.

Oggi è possibile bloccare, anche con l’intervento delle autorità, i deepfake video dai contenuti offensivi o diffamatori. Basti vedere quello che è successo in Reddit (nella community subreddit rivolta ai contenuti generati con deepfake video) dove sono stati bannati deepfake video dai contenuti espliciti in cui erano stati inseriti i volti di star del cinema e della tv. I video sono scomparsi anche dalle piattaforme social di settore come PornHub perché il “sesso involontario” (senza il consenso volontario alla pubblicazione) è vietato. Altra cosa, però, è fermare deepfake video contenenti opinioni false su fatti e personaggi che riguardano argomenti di politica, attualità, economia, religione. Perché è in gioco la libertà di espressione.

Su questo aspetto è intervenuto proprio di recente il sottosegretario all’Editoria, Vito Crimi, il quale ha dichiarato come le fake news non si combattono mettendo il bavaglio alla rete. “Se reprimiamo le fake news, reprimiamo la libertà di informazione”, ha spiegato. Insomma, devono essere le persone a imparare a distinguere le notizie vere da quelle false. Ma se, come descritto nel volume Digital Skills (ed. Hoepli), “la verità dei fatti” conta sempre di meno, “mentre l’utente valuta la simpatia e l’emozione che suscita una persona o una fonte informativa” (ed è il motivo per cui le fake news ci hanno invaso), ora che la “bufale” hanno trovato un ulteriore e implacabile alleato nei deepfake video, sarà sempre più difficile distinguere il vero dal falso.

Come se ne esce? Proviamo a buttare giù, anche noi, qualche consiglio. Primo: attenzione ai video dai titoli “forti e provocatori” pubblicati solo sui social. Secondo: cercateli nelle fonti affidabili (testate giornalistiche accreditate) o in quelle gestite dall’informazione pubblica. Se non li trovate anche là, forse il video in cui “Trump annuncia di bombardare la Corea” potrebbe essere un falso. Terzo: esistono, poi, varie testate on-line e siti specializzati nel “fact checking” (verifica dei fatti) che contrastano altrettanti siti e “professionisti” della disinformazione. Quarto: tiriamo fuori dal cilindro il buon vecchio consiglio di “usare il buon senso“. Non guasta mai. E, ricordate, una news non è per forza vera solo se dà ragione alle nostre opinioni. Potrebbe essere, invece, vero il contrario.

Giuseppe Lanese
Informazioni su Giuseppe Lanese 6 Articoli
Giornalista professionista, comunicatore e formatore. Collabora con Tiscali News ed è Responsabile Cultura dell'agenzia di stampa Primapress. Responsabile comunicazione dell'Ufficio Scolastico del Molise. Fa parte della rete dei Referenti del MIUR per le attività del Piano Nazionale Scuola Digitale ed è Componente del Cantiere nazionale Scuola Digitale di ForumPA. Collabora, come Cultore della materia, con l’Università Telematica Pegaso per il corso di “Comunicazione digitale e social media” ed è Cultore della materia per il corso di "Educazione degli Adulti" presso l'Università LUMSA di Roma. Dal 2016 è Consigliere del direttivo nazionale di AICA con delega ai rapporti con i media. E' autore di “Non è mai troppo tardi – Abc della scuola buona che comunica” (Magi Edizioni) 2016.

1 Commento

  1. Il grande e drammatico problema di questo tipo di contenuti e che potrebbero esasperare una delle questioni che negli ultimi anni ha reso popolare il dibattito sull’informazione manipolata: rinforzano ulteriormente le convinzioni di utenti che hanno idee molto polarizzate su uno specifico argomento o su un persona, e che dunque sono maggiormente esposte a finire dentro trappole cognitive come il bias di conferma (cioe la ricerca e il ricordo di fonti informative che confermano le proprie tesi). Se Obama dice in un video di non essere nato negli Stati Uniti, e questo e esattamente cio di cui un utente e convinto, perche quest’ultimo dovrebbe preoccuparsi dell’attendibilita di cio che sta vedendo (soprattutto se e terribilmente realistico)? In Italia, per il momento, non sono esempi noti al grande pubblico di video o audio palesemente manipolati con questo genere di tecniche. Negli Stati Uniti invece il dibattito e gia molto maturo – forse anche a causa delle imminenti elezioni di meta mandato – e si iniziano a intravedere gia i primi anticorpi al virus.

Lascia un commento

L'indirizzo email non sarà pubblicato.


*