Presto potremmo non credere più a ciò che vediamo in video

Arcangelo Rociola

C'è il caso dell'amministratore delegato di una società britannica che ordina di eseguire immediatamente un bonifico a sei zeri verso una società ungherese, senza spiegare perché. Oppure c'è Mark Zuckerberg che dice con voce tranquilla che con i suoi social network ha il controllo totale delle nostre vite. E poi c'è Matteo Renzi, che in un ‘fuorionda' fa pernacchie e gestacci al capo dello Stato.

Questi casi hanno almeno tre cose in comune: la prima è che sono situazioni inverosimili e la seconda è che qualcuno ha creduto fossero situazioni reali, facendosi molto male almeno nel primo dei casi elencati; la terza è che sono deepfake, video e audio creati con strumenti di intelligenza artificiale per far dire o fare a persone cose che quelle persone non hanno mai detto o fatto.

Come tutto ciò che è ‘fake', falsificato, il deepfake ha avuto una buona eco sulla stampa mondiale. La paura è che, come accaduto con le fake news, presto i video falsificati possano diventare strumento di propaganda e diffamazione nei confronti di avversari politici. Un report di Deeptrace, società fondata ad Amsterdam da Giorgio Patrini, spiega che in realtà dei circa 15 mila video falsi che si possono trovare oggi in Internet, il 96% è porno. Circolano su siti specifici, con un audience piuttosto corposa: 134 milioni di visualizzazioni, hanno calcolato, e una curiosità: tutti i deep fake pornografici hanno come oggetto donne, rivela il report.

Questa sera a #Striscia un fuorionda esclusivo!
È lui o non è lui? Certo che non è lui >> https://t.co/EHD0R8lVeG pic.twitter.com/oR0AwYNlSi

— Striscia la notizia (@Striscia) September 23, 2019

Il deepfake in politica

Video falsi di politici e candidati? Pochi, nell'ordine delle centinaia. Sono quelli che abbiamo visto più spesso, da Obama a Nancy Pelosi, da Trump a Renzi, ma non è un fenomeno così diffuso. Per ora. “Tutto potrebbe cambiare nel 2020 con le presidenziali americane. È lì che ci si aspetta l'esplosione del deep fake in politica”, spiega Patrini all'Agi.

In questi anni con Deeptrace hanno elaborato algoritmi in grado di individuare un video falso: modifiche dell'immagine, della voce, dei contenuti.  “Per ora la maggior parte dei video in circolazione sono di face swap”, scambio faccia, mettere il volto di un personaggio noto su un corpo che gli fa fare cose che non ha fatto. Un po' come quello che è stato fatto con Renzi nel ‘Fuorionda' di Striscia la notizia. Tecnicamente ancora imperfetto, anche se in molti ci sono cascati. Presto però non saranno più così imperfetti: “Ci sono diverse tecnologie in rapida evoluzione. C'è un trend che sta emergendo: siti a cui si possono inviare immagini o video, si chiede di modificare alcune parti, alcuni video, e dopo un paio di giorni di lavoro questi siti rimandano il video con le modifiche e dietro un piccolo pagamento te lo danno. C'è un mercato del deepfake che sta cominciando a raggiungere cifre importanti”. 

Patrini ha cominciato a lavorare ai deepfake dopo una formazione universitaria in apprendimento delle macchine e intelligenza artificiale. “Nel 2018 abbiamo fondato Deeptrace, ci siamo accorti che questi video avrebbero potuto avere un impatto enorme sulla società”. Il primo, più immediato, è che molti potrebbero essere portati a credere a cose che non sono mai successe. Ad attribuire a persone, non solo politici, cose che non hanno mai detto.

Il sospetto che ciò che vediamo in video non sia vero 

Ma c'è una conseguenza più subdola. I deep fake potrebbero farci dubitare di tutto ciò che vediamo in video? “Sì, può succedere”, commenta Patrini. “In un caso è giù successo”. Patrini si riferisce al caso del presidente del Gabon, Ali Bongo. Sparito dalla circolazione per qualche mese, ha deciso di riapparire al suo popolo in video dopo che cominciavano a circolare voci sempre più insistenti sulla sua morte. Il video era autentico, ma molti ritenevano fosse un falso, un  deepfake. "Il video, invece di stemperare le tensioni, ha infiammato le piazze. Con arresti, rivolte e polizia a sedare la sommossa. Abbiamo lavorato noi al caso del Gabon”, spiega Patrini. “È un caso singolare, che però racconta bene cosa potrebbe succedere se scompare la fiducia in quello che vediamo rappresentato in video”.

Le persone potrebbero cominciare a dubitare istintivamente della realtà di un video? “In un certo senso è così'”. Sempre che consideriamo un video 'realtà'. Ora sappiamo che un video può essere artefatto, e con strumenti sempre più precisi e ingannevoli. Quindi tutto ciò che vediamo in video può essere falso. Come se ne esce? “I nostri sensi non bastano più. O meglio, non bastano più per come siamo abituati a usarli. Dovremmo affinarli, educarli, e imparare a capire quello che stiamo guardando”.

I tre video citati all'inizio avevano come primo fattore comune quello di essere inverosimili. Improbabili. L'intelligenza artificiale legge i pixel e vede le anomalie di montaggio audio video. L'intelligenza umana però può cogliere immediatamente la stranezza di un fenomeno. E farsi delle domande prima di credere istintivamente a quello che ha visto.

L'antidoto, per ora

“Quando vediamo un video un po' troppo strano, dovremmo cominciare a controllare, stare più attenti”. Qualcosa che potremmo presto imparare a fare in automatico. Non fidarci troppo, controllare chi sia la fonte del video, cercare se è stato pubblicato da testate autorevoli, o commentato da giornalisti esperti del tema. “Noi ci occupiamo di scovare i deepfake, eppure sappiamo già che non ci sarà mai una tecnologia definitiva che possa porre fine al fenomeno”, conclude Patrini. Le uniche armi sono prestare attenzione, acuire l'intelligenza, educare i sensi. Se i deepfake dovessero riuscire a risvegliarci dal torpore con cui consultiamo i social e i video online, in futuro potrebbero addirittura avere anche un grande merito. Ma è solo la prospettiva più ottimistica. 

@arcangeloroc