domenica, 16 Maggio 2021

Deepfake: il revenge porn 2.0

Il Deepfake, ovvero il Revenge porn 2.0. I Deepfake, termine coniato nel 2017, sono video che sfruttano la tecnologia di deep learning (letteralmente, apprendimento profondo) e sono considerati la nuova generazione di manipolazione di video e audio.

Da non perdere

Attraverso la tecnologia di deep learning si possono manipolare video per ledere intenzionalmente la dignità altrui

È ancora nitido nelle nostre menti il caso del video hard circolato tra le chat di WhatsApp di una maestra torinese: l’ultima della lunga lista di vittime di Revenge porn. Siamo nel 2018.

Oppure ancora, il caso del video di Tiziana Cantone, diffuso nel 2015, quando ancora di Revenge porn non si parlava. La ragazza si sarebbe suicidata l’anno dopo e la legge contro il Revenge porn sarebbe stata approvata nel 2019. Soltanto 3 anni fa.

Per comprendere di cosa si parla: immaginate che giri in rete un vostro video intimo che non avete neanche mai girato. Ecco, questo è il caso dei video Deepfake, una sorta di evoluzione del Revenge porn.

I Deepfake, termine coniato nel 2017, sono video che sfruttano la tecnologia di deep learning (letteralmente, apprendimento profondo) e sono considerati la nuova generazione di manipolazione di video e audio. Come funziona: l’intelligenza artificiale (IA) mappa i tratti di un volto attraverso un’immagine e li sovrappone sul volto di un’altra persona: come una maschera, quei tratti vengono applicati ad un secondo soggetto, facendogli fare e dire qualsiasi cosa.

Se alcuni sono palesemente finti e creati con un intento goliardico, altri sono parecchio accurati, tanto da sembrare realistici. Ma i Deepfake possono portare il tutto ad un livello successivo: furto d’identità, disinformazione e diffamazione.

Con l’avvento di Internet e dei Social Media si è tanto parlato di come la realtà sia stata distorta a favore di camera. Basti pensare ai molteplici casi di persone che hanno finto di andare in vacanza in posti esotici grazie a programmi di fotoritocco per sembrare più alti e snelli nelle fotografie al mare.

Si inizia a parlarne un paio di anni fa, quando sul social Reddit nasce una comunità online che si chiamava proprio “Deepfake”. Se inizialmente i risultati dei video prodotti erano raffazzonati, con l’avanzamento tecnologico, i video sono diventati sempre più accurati, generando un traffico intenso di contenuti pornografici.

Ad oggi, il 95% dei filmati Deepfake presenti online sono costituiti da materiale pornografico non consensuale e ben il 90% ha come protagoniste donne o ragazzine.

Si stanno moltiplicando le denunce relative a immagini rubate per creare Deepfake pornografici: nient’altro che atti di Revenge porn e nel caso di minori, Cyberbullismo.

L’ultimo, il caso di una donna cinquantenne della Pennsylvania accusata di cyberbullismo e molestie informatiche.

La donna avrebbe creato immagini Deepfake di compagne cheerleader della figlia, con l’intento di denigrarle. I video ritraevano le ragazzine nude, mentre bevevano alcolici e fumavano: il tutto era ovviamente falso.

Successivamente, la donna avrebbe poi inviato messaggi intimidatori da cellulari usa e getta, esortando le stesse a uccidersi.

Già nel 2019, l’informatico Hao Li, pioniere in questo settore, aveva stimato che video autentici e Deepfake sarebbero diventati indistinguibili entro i successivi 6-12 mesi: mai previsione si sarebbe rivelata più azzeccata.

Secondo uno studio, il numero totale di video Deepfake su internet è raddoppiato in soli 9 mesi tra dicembre 2018 e luglio 2019. Dal 2019, il numero di Deepfake online è passato da 14.678 a 145.227, una crescita del 900%.

Siamo davanti ad una tecnologia inarrestabile che necessita di una regolamentazione. Come nel caso del Revenge porn, occorrono tutele giuridiche e leggi che puniscano con massima severità abusi come il Deepfake.

È indispensabile formare e sensibilizzare gli utenti ad un uso responsabile dei mezzi digitali, per stare al passo con l’avanzamento tecnologico ma senza allungare la lista delle vittime dei tanti reati cibernetici codificati.

Ultim'ora