Riconoscere i deep fake

deep fake

«La tecnologia dei deep fake ha raggiunto un livello di realismo impressionante. Nel contesto delle indagini e delle controversie legali, dove i filmati delle telecamere di sorveglianza sono spesso prove cruciali, esiste un metodo affidabile per riconoscere un video generato o alterato dall’AI?», chiede un lettore di Sicurezza.

Attualmente, l’analisi forense si concentra sui dati che l’AI e il dispositivo utilizzato lasciano incorporati nel filmato realizzato, una sorta di “impronta digitale” che consente di individuare i file originali da quelli alterati o generati senza aver acquisito alcuna immagine (deep fake).

Gli elementi che possono essere analizzati riguardano essenzialmente:

  • metadati, per cui l’assenza o la presenza di determinate informazioni relative al dispositivo di acquisizione originale può essere un primo campanello d’allarme;
  • incoerenze fisiche e spaziali, perché i deep fake, per quanto sofisticati, spesso presentano sottili imperfezioni come rumore non uniforme, schemi di compressione atipici, mancanza di sincronizzazione tra movimento della bocca e audio, battito di ciglia assente o innaturale, incoerenza tra ombre e luce ambientale ecc.;
  • frame rate non adeguato, per cui alcuni strumenti di AI generano video con frame rate o pattern di movimento diversi da quelli standard, non rilevabili dall’occhio umano ma individuabili con software specifici.

Si tratta, ovviamente, di operazioni che non possono essere eseguite da un comune cittadino ma devono essere affidate a un esperto di forensics che abbia competenze anche nel campo dell’AI e dei deep fake. In sintesi: gli strumenti esistono ma non sono alla portata di tutti e, soprattutto, possono essere talmente costosi da rendere il gioco inadeguato alla candela.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome