gonews.it

Deepfake, progetto internazionale delle Università di Firenze e Trento

Nella lotta al falso, dopo il fotomontaggio e le fake news, la nuova frontiera si chiama deepfake. Consiste nella creazione di video e di immagini altamente realistici tramite tecniche avanzate di intelligenza artificiale. Una manipolazione sofisticata e profonda, subdola e pervasiva, capace di trarre in inganno perfino il cervello umano, che a volte non riesce a distinguere tra artificiale e naturale.

Uno dei casi più noti di deepfake, all’inizio preso per vero e diventato virale, è il video falsificato di Mark Zuckerberg che nell’estate 2019 venne pubblicato su Instagram suscitando grande clamore. L’immagine dell’amministratore delegato di Facebook era stata manipolata per fargli pronunciare, con una voce creata al computer, parole che nella realtà non aveva mai detto sul controllo del futuro.

Un esempio di manipolazione video più leggera (un semplice rallentamento introdotto nella sequenza), ma molto dannosa dal punto di vista della reputazione, era stato nella primavera 2019 quello che induceva a pensare a uno stato di ubriachezza della presidente della Camera dei rappresentanti statunitense Nancy Pelosi. Il video, pubblicato su Facebook e condiviso su Twitter, anche questa volta era diventato subito virale.

Il deepfake impegna forze investigative e informatiche in una nuova lotta contro il falso che impone di riconoscerlo, ma anche di ricostruirne tutta la catena di elaborazioni subite dal dato multimediale, da quando un video viene generato alle varie condivisioni nei social, che ne aumentano l’effetto. La lotta mobilita un team di ricerca italiano che vede protagoniste le Università di Firenze e di Trento. Firenze dà il proprio contributo con l’analisi del formato, mentre UniTrento porta le competenze maturate nell’analisi del viso umano e del segnale e si concentra quindi sul contenuto.

Il progetto si chiama Unchained (Uncovering media manipulation chains through container and content detectable traces) e ha l’obiettivo di rilevare in rete contenuti multimediali manipolati e potenzialmente diffamatori e la loro tracciabilità. È stato finanziato dalla Darpa (Defense Advanced Research Projects Agency), agenzia governativa del Dipartimento della Difesa degli Stati Uniti incaricata dello sviluppo di nuove tecnologie, in un bando sull’utilizzo dell’intelligenza artificiale nel contrasto ai raggiri (AI Explorations Reverse Engineering Deceptions). Sarà lanciato oggi 27 ottobre e domani 28 in un kick off online con Matt Turek, project manager americano di Unchained e durerà 18 mesi.

L’unità di ricerca dell’Università di Firenze è guidata da Alessandro Piva (foto in allegato), professore del Dipartimento di Ingegneria dell’Informazione.

"Il nostro gruppo di ricerca - afferma Piva - lavora nell'ambito dell'identificazione di possibili manipolazioni in contenuti multimediali da più di dieci anni. All'inizio della nostra attività, le possibili manipolazioni erano molto limitate e riguardavano solo le immagini, a causa della complessità degli strumenti di editing e della ridotta capacità di calcolo a disposizione”.

“Oggi- aggiunge il docente fiorentino - mediante algoritmi di intelligenza artificiale è possibile creare in poco tempo manipolazioni complesse sia di immagini e di video, che diventano ben presto virali.

L'identificazione di manipolazioni diventa quindi sempre più complessa. A Firenze ci stiamo concentrando sullo studio dell'integrità di video, in particolare quelli scambiati nell'ambiente social”.

Oltre ad Unchained, il team fiorentino ha portato a termine terminato un altro progetto finanziato dalla DARPA, e sta partecipando, insieme all'Università di Trento e ad altre tre università italiane, ad un progetto finanziato dal Ministero dell'Università e Ricerca.

Fonte: Università degli Studi di Firenze

Exit mobile version