Spiegazione: perché sta diventando più difficile rilevare i video deepfake e quali sono le implicazioni?
Il potenziale pericolo dei deepfake risiede nel fatto che il livello di manipolazione è così perfetto che a volte può essere apparentemente impossibile distinguerli dai video reali. E più diventa difficile rilevare la falsità, maggiore è la minaccia che possiede di spacciarsi per reale e causare il caos che intende provocare.
I video falsificati o i deepfake sono da tempo una delle armi chiave utilizzate nelle battaglie di propaganda. Donald Trump che schernisce il Belgio per essere rimasto nell'accordo sul clima di Parigi, David Beckham che parla fluentemente nove lingue, Mao Zedong che canta 'I will survival' o Jeff Bezos ed Elon Musk in un episodio pilota di Star Trek... tutti questi video sono diventati virali nonostante fossero falso, o perché erano deepfake.
Questo deepfake inquietantemente realistico mette Jeff Bezos ed Elon Musk in un episodio di Star Trekhttps://t.co/5KxmHpo1WM pic.twitter.com/CpWe91Qil0
— The Verge (@verge) 23 febbraio 2020
L'anno scorso, Marco Rubio, il senatore repubblicano della Florida, ha affermato che i deepfake sono potenti quanto le armi nucleari nel condurre guerre in una democrazia. Ai vecchi tempi, se volevi minacciare gli Stati Uniti, avevi bisogno di 10 portaerei, armi nucleari e missili a lungo raggio. Oggi basta solo l'accesso al nostro sistema Internet, al nostro sistema bancario, alla nostra rete elettrica e infrastruttura e, sempre di più, tutto ciò di cui hai bisogno è la capacità di produrre un falso video molto realistico che potrebbe minare le nostre elezioni, che potrebbe gettare il nostro paese in una tremenda crisi interna e ci indeboliscono profondamente, Forbes lo ha citato come dicendo.
Il potenziale pericolo dei deepfake risiede nel fatto che il livello di manipolazione è così perfetto che a volte può essere apparentemente impossibile distinguerli dai video reali. E più diventa difficile rilevare la falsità, maggiore è la minaccia che possiede di spacciarsi per reale e causare il caos che intende provocare. Ma con strumenti più sofisticati alimentati dall'intelligenza artificiale ora disponibili per produrre questi video, sta diventando più difficile rilevare i deepfake?
Cosa sono i deepfake e come vengono creati?
I deepfake costituiscono contenuti falsi, spesso sotto forma di video ma anche altri formati multimediali come immagini o audio, creati utilizzando potenti strumenti di intelligenza artificiale. Sono chiamati deepfake perché utilizzano la tecnologia di deep learning, una branca dell'apprendimento automatico che applica la simulazione della rete neurale a enormi set di dati, per creare contenuti falsi.
patrimonio netto di colin herd
Impiega un ramo dell'intelligenza artificiale in cui se un computer riceve dati sufficienti, può generare falsi che si comportano in modo molto simile a una persona reale. Ad esempio, l'intelligenza artificiale può apprendere l'aspetto di una faccia di origine e quindi trasporla su un altro bersaglio per eseguire uno scambio di volti.
L'applicazione di una tecnologia chiamata Generative Adversarial Networks (GAN), che utilizza due algoritmi di intelligenza artificiale, in cui uno genera il contenuto falso e l'altro classifica i suoi sforzi, insegnando al sistema a essere migliore, ha contribuito a creare deepfake più accurati.
Il GAN può anche fornire immagini generate al computer di esseri umani falsi, che è stato utilizzato da un sito Web chiamato 'Questa persona non esiste'. Ciò rende praticamente impossibile rilevare se i video o le immagini che vediamo su Internet sono reali o falsi.
I deepfake possono essere davvero difficili da rilevare. Ad esempio, molte persone si erano innamorate dei video di Tiktok di Tom Cruise che giocava a golf che si sono poi rivelati deepfake.
Sta diventando più difficile rilevare i deepfake?
Un documento presentato alla Winter Conference on Applications of Computer Vision 2021 descrive una nuova tecnica che rende i deepfake più infallibili, rendendo difficile per gli strumenti tradizionali rilevarli.
Lo studio, condotto da Paarth Neekhara e Shehzeen Samarah Hussain, entrambi dottorandi dell'Università della California a San Diego, ha scoperto che gli strumenti di rilevamento possono essere ingannati inserendo input leggermente manipolati chiamati esempi contraddittori in ogni fotogramma video.
Gli attuali metodi all'avanguardia per il rilevamento dei deepfake possono essere facilmente aggirati se l'avversario ha una conoscenza completa o anche parziale del rilevatore, afferma il documento intitolato 'Adversarial Deepfake: valutazione della vulnerabilità dei rilevatori di deepfake agli esempi contraddittori'.
Parlando con indianexpress.com, Neekhara e Hussain hanno affermato che i metodi di rilevamento standard possono essere tutt'altro che infallibili perché non è garantito che rilevino i video deepfake più recenti sintetizzati utilizzando nuove tecniche che non sono nel set di dati e sono vulnerabili agli input contraddittori.
ISCRIVITI ADESSO :Il canale Telegram spiegato ExpressGli input contraddittori sono input leggermente modificati in modo tale da causare un errore nelle reti neurali profonde. È stato dimostrato che le reti neurali profonde sono vulnerabili a tali input che possono causare la modifica dell'output del classificatore. Nel nostro lavoro, dimostriamo che un utente malintenzionato può modificare leggermente ogni fotogramma di un video deepfake in modo tale da poter bypassare un rilevatore di deepfake ed essere classificato come reale, hanno affermato.
gretchen johnson richard dawson
Hanno aggiunto: L'attaccante può creare una piccola impercettibile perturbazione contraddittoria per ogni fotogramma di un video deepfake, aggiungerlo al fotogramma e quindi combinare tutti i fotogrammi video insieme per creare il video contraddittorio. Nei nostri esperimenti che utilizzano queste tecniche, siamo stati in grado di ottenere un tasso di successo (di ingannare il rivelatore) superiore al 90%.
Quali sono le minacce poste dai video deepfake?
Con una proliferazione di video deepfake, c'è una crescente preoccupazione che saranno usati come arma per condurre campagne politiche e possano essere sfruttati da regimi autoritari.
Nel 2019, un'organizzazione di ricerca chiamata Future Advocacy e l'artista britannico Bill Posters hanno creato un video del primo ministro britannico Boris Johnson e del leader del partito laburista Jeremy Corbyn che si approvavano a vicenda per la carica di primo ministro. Il gruppo ha affermato che il video è stato creato per mostrare il potenziale dei deepfake per minare la democrazia.
Inoltre, l'anno scorso, prima dei sondaggi dell'Assemblea di Delhi, i video del presidente del Delhi BJP Manoj Tiwari che parlava in inglese e di Haryanvi sono diventati virali. In questi video, Tiwari è stato visto criticare Arvind Kejriwal e chiedere alle persone di votare per il BJP. I video, condivisi in oltre 5.000 gruppi WhatsApp, si sono poi rivelati deepfake, secondo quanto riportato dalla società di media digitali Vice.
I deepfake sono anche motivo di preoccupazione in un momento in cui l'OMS ha affermato che la crisi di Covid-19 ha innescato un'infodemia e ci sono stati deliberati tentativi di diffondere informazioni errate per minare la risposta della salute pubblica e far avanzare programmi alternativi di gruppi o individui.
Inoltre, i video falsificati - che includono la manipolazione del contenuto utilizzando un timbro di data o posizione errati, il ritaglio del contenuto per cambiare il contesto, l'omissione, l'unione e la fabbricazione - sono sempre più utilizzati oggi sui social media per travisare deliberatamente i fatti per fini politici. La maggior parte di questi video non sono esempi di deepfake, ma mostrano quanto sia facile offuscare i fatti e diffondere bugie basate su contenuti manipolati mascherati da prove concrete.
L'IA di Wombo è selvaggia pic.twitter.com/YIaFcRreGG
-Jack Posobiec (@JackPosobiec) 10 marzo 2021
L'altra grande preoccupazione per i video deepfake è la generazione di contenuti pornografici non consensuali. Nel 2017, un utente ha implementato un algoritmo di scambio di volti per creare video pornografici deepfake di celebrità come Scarlett Johansson, Gal Gadot, Kristen Bell e Michelle Obama, e li ha condivisi su una minaccia Reddit chiamata r/deepfake. L'account aveva quasi 90.000 abbonati quando è stato chiuso nel febbraio del prossimo anno.
Delle migliaia di video deepfake su Internet, oltre il 90% sono pornografia non consensuale. Uno degli esperimenti di intelligenza artificiale più terrificanti dell'anno scorso è stata un'app chiamata DeepNude che spogliava le foto di donne: poteva scattare fotografie e quindi scambiare i vestiti delle donne con corpi nudi altamente realistici. L'app è stata rimossa dopo un forte contraccolpo.
Inoltre, come è stato ampiamente riportato, i video deepfake vengono sempre più utilizzati per generare revenge porn da amanti respinti per molestare le donne.
La minaccia rappresentata dai video di Deepfake è già evidente, hanno detto Neekhara e Hussain a indianexpress.com. Ci sono utenti malintenzionati che utilizzano tali video per diffamare personaggi famosi, diffondere disinformazione, influenzare le elezioni e polarizzare le persone. Con tecniche di sintesi video deepfake più convincenti e accessibili, questa minaccia è diventata ancora più grande in grandezza, hanno aggiunto.
C'è un giro di vite in vista?
La maggior parte delle società di social media come Facebook e Twitter hanno vietato i video deepfake. Hanno detto che non appena rileveranno un video come deepfake, verrà rimosso.
patrimonio netto di young dolph
Facebook ha reclutato ricercatori di Berkeley, Oxford e altre istituzioni per costruire un rilevatore di deepfake. Nel 2019, ha tenuto una Deepfake Detection Challenge in collaborazione con leader del settore ed esperti accademici durante la quale è stato creato e condiviso un set di dati unico composto da oltre 100.000 video.
Tuttavia, non tutti i deepfake possono essere rilevati con precisione e può anche volerci molto tempo prima che vengano trovati e rimossi. Inoltre, molti siti pornografici non esercitano lo stesso livello di restrizioni.
Neekhara e Hussain hanno affermato: 'Per rilevare i video deepfake in modo più accurato, abbiamo bisogno di modelli contraddittori che incorporano un utente malintenzionato durante l'addestramento di tali modelli di rilevamento deepfake. Una soluzione a lungo termine è la filigrana o la firma digitale delle immagini e dei video dal dispositivo in cui vengono acquisiti. La filigrana o la firma digitale dovrebbero essere interrotte se vengono applicate le tecniche di deepfake come lo scambio di volti. Un rilevatore di deepfake può quindi semplicemente verificare la firma o la filigrana. Tuttavia, ciò richiederebbe la creazione di uno standard di filigrana su tutte le fotocamere e i telefoni cellulari. Pertanto, può volerci un po' di tempo prima che questo diventi una realtà.
Condividi Con I Tuoi Amici: