Multimedia forensics, così si smascherano foto e video manipolati: tutte le sfide

  • Postato da: Redazione

>>Credit: Puoi leggere l’articolo originale che è stato pubblicato da questo sito

Modificare un’immagine o un video digitale non è mai stato così facile. Grazie a potenti software di editing e a tecnologie avanzate di intelligenza artificiale è possibile creare manipolazioni estremamente realistiche. Niente di male se l’intento è ludico. Decisamente problematico se l’obiettivo è diffondere notizie false per fini malevoli. Ecco perché negli ultimi 15 anni la comunità scientifica ha prodotto molte tecniche per la rivelazione automatica delle manipolazioni sia di immagini che di video e si è sviluppato un nuovo ramo del signal processing noto come “multimedia forensics”.

Il problema però non è banale, dato che le falsificazioni diventano anch’esse sempre più sofisticate. Inoltre, un attaccante esperto, dopo aver modificato l’immagine, può mascherare l’attacco con opportuni accorgimenti in modo che certe tecniche di difesa risultino inefficaci. Insomma è una corsa agli armamenti, e non è affatto scontato chi vincerà alla fine.

Manipolazioni sempre più sofisticate con il deep learning

La manipolazione di immagini, del resto, è antica come la fotografia stessa. Già all’inzio del secolo scorso, ad esempio, Stalin feceva cancellare i suoi nemici politici dalle foto ufficiali dopo averli eliminati fisicamente. Tuttavia con l’avvento della fotografia digitale, e la diffusione di tool di editing semplici e potenti, come Photoshop o Gimp, manipolare immagini è diventato alla portata di tutti. Con pochi semplici comandi si possono copiare e incollare oggetti in una foto, importarli da altre immagini, o coprire oggetti indesiderati. Tutto questo, assieme alla facilità con cui è possibile diffondere i dati multimediali mediante un social network, consente la disseminazione virale di “fake multimedia”, versione potenziata della fake news testuali, con effetti potenzialmente catastrofici. Questo scenario è ulteriormente peggiorato con l’avvento del “deep learning”, una branca dell’intelligenza artificiale, e in particolare con l’uso delle reti neurali convoluzionali (CNN). Con questa nuova tecnologia è possibile effettuare manipolazioni estremamente sofisticate non solo di immagini, ma anche di video. Su internet è già possibile trovare app scaricabili anche gratuitamente, come DeepFake, che permettono di generare contenuti manipolati molto realistici. L’unico requisito è avere elevate quantità di dati a disposizione per addestrare correttamente la rete neurale, ad esempio molti video della persona che si vuole attaccare con DeepFake.

La vera rivoluzione è che queste nuove metodologie richiedono poca a nessuna abilità da parte dell’utente. Infatti, non bisogna modificare manualmente l’illuminazione, ruotare il volto, o perdere ore e ore per rendere la contraffazione quanto più realistica possibile.

Autore: Redazione