Cómo detectar deepfakes mediante técnicas forenses de medios de comunicación

Tecnología de seguimiento de imágenes

22 de junio de 2020

Cómo detectar deepfakes mediante técnicas forenses de medios de comunicación

LECTURA RÁPIDA

Comparte este artículo

Suscríbete al blog

Me suscribo

El interminable juego de deepfake, anti-deepfake y anti-anti-deepfake.

¿Qué es deepfake?

Deepfake es la contracción de "deep learning" (aprendizaje profundo) y "fake news" (noticias falsas). Se refiere a la creación de contenidos multimedia falsos (imágenes, vídeo, sonido). Contenidos que no son grabaciones de escenas o acontecimientos físicos reales. Antes se llamaba efectos especiales o imágenes generadas por ordenador. Sin embargo, para hacer nuevo con lo viejo, se le cambió el nombre para darle un atractivo más de moda, al tiempo que se incluía la tan manida "Inteligencia Artificial".

¿Nada nuevo bajo el sol, entonces?

Sí, dos puntos críticos.

 

Las herramientas están democratizadas y se encuentran fácilmente en Internet

En el laboratorio se han desarrollado algoritmos extremadamente complicados y precisos que ahora están disponibles como código abierto. Mover los labios de David Beckham para sincronizarlos con un texto, hacer que Barack Obama diga cualquier cosa y animar imágenes fijas para revivir a Marylin Monroe está ahora al alcance de casi cualquiera.

Además, si sigue siendo demasiado complicado, se puede contratar fácilmente a deepfakers en Internet que harán el trabajo a 20 dólares por vídeo.

 

El proceso es ante todo no colaborativo

Los efectos especiales de Hollywood tienen la inmensa ventaja de producirse en un entorno colaborativo. Se colocan sensores en los cuerpos de los actores que han sido escaneados para disponer de un modelo 3D lo más fiel posible. En resumen, todo se hace para facilitar la tarea de postproducción.

Obviamente, Vladimir Putin nunca consintió la realización de los deepfakes en los que aparece.

Los expertos aún pueden discernir imperfecciones en estos deepfakes, pero su realismo está mejorando a gran velocidad. Ya no basta con verlo para creerlo; ya no se puede confiar en lo que se ve en Internet. A los periodistas les petrifica la idea de retransmitir deepfakes sin su conocimiento, lo que arruinaría su credibilidad. Algunos predicen el apocalipsis en el mundo de los medios de comunicación.

 

¿Cuáles son las herramientas de investigación anti-deepfake?

Media Forensics es la investigación de contenidos digitales: ¿son reales o falsos? Como Sherlock Holmes, a veces sólo hace falta una lupa: ¿Por qué Barack Obama nunca parpadea en este vídeo? ¿Por qué los bordes de sus ojos y su boca están borrosos cuando el resto de su cara está despejada? Incluso cuando la edición y los efectos especiales no pueden verse a simple vista, las herramientas de imagen digital pueden identificar marcas invisibles a simple vista. Las formas específicas de generar deepfakes dejan patrones característicos en los valores de los píxeles o, por el contrario, no dejan las mismas huellas que el sensor de una cámara digital.

Anti-anti-deepfake, ¿hasta dónde llegará la respuesta?

Es un juego sin fin del gato y el ratón, policía y ladrón: Si sé que su herramienta forense detecta la presencia o ausencia de tales o cuales rastros en mis deepfakes, los pasaré a mi herramienta anti-anti-deepfake para eliminarlos / insertarlos artificialmente. Y así sucesivamente... son de esperar largas series de artículos científicos donde uno bloqueará los avances del otro, que bloqueó los resultados anteriores y así sucesivamente. No será fascinante (opinión del científico aquí).

¿Quién ganará al final, el gato o el ratón?

Esa es la cuestión. Aún no lo sabemos, ¿y lo sabremos algún día?

Centrarse en dos enfoques anti-deepfake

Vamos a ilustrar dos enfoques particulares anti-deepfake que nos gustan :

 

La búsqueda de la obra original

Algunos deep-fakes y especialmente los fotomontajes, utilizan y desvían contenidos originales. Las manipulaciones son evidentes cuando tenemos ante nosotros contenidos originales y contenidos manipulados. De ahí la idea de encontrar contenidos originales con un motor de búsqueda como Google Image.

Sí, pero ¿cómo puedo certificar que he encontrado correctamente la imagen original?

Aquí es donde la marca de agua invisible actúa como un sello que atestigua la originalidad del contenido. ¿Quién lo crea y cuándo? Lo hacen agencias de noticias acreditadas y de confianza (Associated Press, Reuters, NY Times, etc.) tras examinar minuciosamente el contenido. Otras ofrecen repositorios de imágenes auténticas certificadas. Si a esto añadimos la idea de un registro descentralizado, aparece otra palabra de moda: blockchain.

 

Investigación forense activa

Recrear la cadena de creación de una imagen desde el paso de la luz por el objetivo de una cámara hasta el archivo jpg final es complicado.

Sobre todo porque cada fabricante tiene su propia receta de cocina, cada modelo de cámara o software de procesado tiene sus ajustes, etc.

Y, por último, la inteligencia artificial y sus redes neuronales profundas han sustituido recientemente las cadenas de procesamiento por procesos algo opacos.

Es difícil saber si es normal o no observar la presencia o ausencia de rastros, especialmente cuando se han eliminado los metadatos EXIF. A menos que se creen deliberadamente en cadenas de procesamiento "oficiales". Esta es la idea clave de un artículo científico que se presentará la próxima semana en la conferencia IEEE International Conference on Computer Vision (ICCV 2019) por Pawel Korus y Nasir Memon, Tandon School of Engineering, New York University. Este artículo está actualmente en boca de todos en la red.

Los autores proponen entrenar dos redes neuronales profundas: la primera convierte una imagen "en bruto del sensor" (formato RAW) en una imagen de buena calidad, de modo que los rastros de manipulación (compresión JPEG, reescalado, etc.) sean detectables por la segunda red.

La primera red facilita la tarea forense de la segunda: una buena idea académica que parte de la base de que todos los fabricantes de cámaras implementarán este algoritmo. Además, que los falsificadores profundos no podrán entrenar una red neuronal que podría destruir este trabajo forense en curso. El juego del gato y el ratón, policía y ladrón, continúa ...

 

deepfake forensics

Estos artículos también pueden interesarle

Comprender los riesgos de seguridad de la marca de agua digital

Tecnología de seguimiento de imágenes

23 de enero de 2024

Comprender los riesgos de seguridad de la marca de agua digital

Más información
La saga de las marcas de agua digitales invisibles: un viaje en el tiempo

Tecnología de seguimiento de imágenes

20 de noviembre de 2023

La saga de las marcas de agua digitales invisibles: un viaje en el tiempo

Más información
8 Ejemplos de uso de marcas de agua forenses para la protección de imágenes

Tecnología de seguimiento de imágenes

1 de agosto de 2023

8 Ejemplos de uso de marcas de agua forenses para la protección de imágenes

Más información

Suscríbete al blog

Al enviar este formulario, acepto la política de privacidad de Imatag.