Con l’arrivo dell’intelligenza artificiale, oltre ai normali contenuti fake a cui internet ci ha abituato, sono diventati particolarmente diffusi video, foto o altri contenuti ingannevoli. Qualcuno si sarà sicuramente imbattuto in video di attori, cantanti e star di Hollywood che promuovono determinati marchi o addirittura di politici che parlano senza filtri di elezioni e oppositori. Beh, non si tratta di video reali ma di deepfakeovvero contenuti che hanno l’obiettivo di polarizzare l’opinione pubblica su determinati argomenti o creare engagement ma con il volto di un’altra persona che, il più delle volte, non sa di essere protagonista di quello specifico contenuto.
Come sempre, tutto nasce dall’ormai evidente potenza dell’AI grazie alla velocissima elaborazione dei dati che lo consente creare video falsi utilizzando il volto di qualcun altro. Tutto questo è possibile grazie alla presenza di algoritmi molto sofisticati e veloci, chiamati Machine Learning, che raccolgono una quantità incredibile di dati.
«I deepfake sono video realizzati in digitale che rubano sia l’aspetto estetico che la voce a una potenziale vittima. Utilizzando il computer viene poi creato un contenuto in cui quella persona parla e dice le cose che vogliamo” spiega il videomaker e imprenditore Giuseppe De Toma. Come tutte le innovazioni che riguardano il settore tecnologico e, più specificatamente, l’applicazione dell’Intelligenza Artificiale, esistono rischi e difficoltà nella gestione di tali fenomeni. Innanzitutto è bene specificare che «realizzare video falsi è diventato estremamente facile, gratuito e accessibile a tutti. Non è più difficile e laborioso creare contenuti falsi, infatti è possibile ottenerli anche attraverso l’uso del nostro smartphone” spiega De Toma. Proprio dall’accesso facilitato alla creazione di contenuti falsi deriva la difficoltà di gestirli, sia a livello normativo e a livello di sistema, la grande quantità di deepfake prodotti.
Purtroppo la storia che coinvolge la pop star americana è diventata nota Taylor Swift per la pubblicazione su alcune piattaforme web di immagini porno create dall’Intelligenza Artificiale, chiaramente senza il suo consenso.
Ma cosa puoi fare per riconoscere un deepfake in un mare di contenuti che ogni giorno ci vengono serviti dalle varie piattaforme del web? Il videomaker e imprenditore Giuseppe De Toma ci spiega che «è importante controllare sempre le fonti quando ci troviamo di fronte a contenuti che potrebbero essere falsi. Prendiamo ad esempio il caso di Tom Hanks in cui il suo volto e la sua voce sono stati utilizzati per realizzare un video pubblicitario in cui “sponsorizzava” una clinica odontoiatrica. Ovviamente non è stato lui a farlo, ma l’azienda stessa. In questo caso verificare la fonte è molto importante, così come crearne una ricerca incrociata» chiarisce De Toma.
È anche vero che se la tecnologia corre veloce, il sistema normativo non riesce certo a tenere il passo, soprattutto quando si tratta di ambiti nuovi che richiedono una comprensione più approfondita del fenomeno. In diversi paesi come Inghilterra, Cina e Stati Uniti, si stanno facendo passi avanti misure con l’obiettivo di contrastare la presenza di deepfake nel web. In Europa, negli ultimi tempi, è stato proposto l’Artificial Intelligence Act in cui, oltre a fare riferimento ai diversi rischi promossi dall’IA, si fa riferimento alla necessità di imporre requisiti minimi di trasparenza rispetto ai contenuti che vengono pubblicati.
«Sappiamo bene che la tecnologia vola e le leggi faticano a tenere il passo. Quello che sicuramente è importante fare quando ci troviamo di fronte ad un deepfake è segnalarlo alle autorità competenti” aggiunge De Toma.
Anche alcune importanti aziende del settore come Meta e Twitch hanno bannato alcune tipologie di contenuti con l’obiettivo di limitare la presenza di deepfake nel web. In particolare, il social network di Mark Zuckerberg ne ha lanciato uno nel 2019 Sfida di rilevamento dei deepfake con l’obiettivo di velocizzare l’individuazione di contenuti falsi. Quindi, se a volte è facile capire che si tratta di un deepfake, altre volte può essere più difficile smascherare tali contenuti. Questo accade perché i sistemi per creare video o foto migliorano giorno dopo giorno, aumentando realismo e credibilità.
Ciò che possiamo fare, oltre a chiedere norme sempre più stringenti in questo ambito, è un’analisi attenta sul reale utilizzo di questi sistemi. L’Intelligenza Artificiale è una grande risorsa per il nostro mondo, ma può rappresentare anche un forte pericolo se non dominata nel mondo giusto e, soprattutto, se utilizzata nel modo meno appropriato. L’intelligenza artificiale dovrebbe contribuire a migliorare il nostro mondo, non a renderlo più difficile. Ma questo, purtroppo o per fortuna, dipende solo da noi.
© TUTTI I DIRITTI RISERVATI