Es posible 'rebobinar' el proceso de creación de una imagen generada mediante IA para reconstruir las fotos reales en que se basa

Es posible 'rebobinar' el proceso de creación de una imagen generada mediante IA para reconstruir las fotos reales en que se basa
Sin comentarios Facebook Twitter Flipboard E-mail

Las GAN o 'redes generativas antagónicas' son la tecnología de inteligencia artificial responsable de los servicios de generación de rostros fake ultrarrealistas como el popular This Person Does Not Exists.

Para generar estas caras falsas, la red neuronal que hay detrás de estos servicios ha tenido que ser previamente entrenada con miles o millones de fotos de rostros reales, para ser capaz de 'saber' cómo lucen los rostros humanos, y así poder después 'imaginar' cómo podría verse uno, que es lo que ocurre cada vez que cargamos una web como This Person Does Not Exists.

Sin embargo, estos rostros generados artificialmente y que, gracias al gran número de datos usados en el entrenamiento de las redes neuronales, deberían hacer gala de rasgos faciales intermedios entre numerosos 'modelos' en muchas ocasiones contienen datos de las caras reales del dataset de entrenamiento, lo que permite reconstruir éstas.

Esto es lo que han demostrado un grupo de investigadores de la Universidad Caen Normandía (Francia) en un artículo irónicamente bautizado como 'This Person (Probably) Exist', y que es el último de una serie de investigaciones enfocadas a poner en duda la idea de las redes neuronales 'como cajas negras' cuyo proceso de pensamiento no puede ser reconstruido y comprendido por humanos.

Han tenido tanto éxito en esta última tarea, que han sido capaces de recrear imágenes de entrenamiento 'rebobinando' el proceso de una GAN a partir de una de las imágenes generadas:

Kautz
Datos originales de entrenamiento (arriba) y su reconstrucción a partir de los deepfakes generados (abajo).
En resumen, esto demuestra que los datos personales (sí, también los biométricos) pueden seguir presentes en los deepfakes generados mediante IA (y no sólo los deepfakes de imagen)

Pero, al margen de eso, lo que han demostrado es que, utilizando una técnica llamada 'ataque de membresía', es posible saber si un determinado dato (como una foto de una persona) ha sido usado para entrenar una IA, todo ello usando las sutiles diferencias en el modo en que dicha IA procesa las fotos que ya conoce y las que se le presentan por primera vez.

Pero los investigadores fueron un paso más allá, y combinando dicha técnica con una IA de reconocimiento facial, fueron capaces de saber si una determinada IA había sido entrenada con fotos de una determinada persona, aunque no se hubiera usado exactamente la foto que se le estaba proporcionando a la IA para su análisis. Así, descubrieron que numerosos rostros generados por GANs parecían coincidir con los rasgos faciales de personas reales.

Webster
La columna de la izquierda en cada bloque muestra deepfakes generados por una GAN. Los tres rostros siguientes son fotos de personas reales identificadas en el dataset de entrenamiento.
Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

¿Qué supone este descubrimiento?

Y este descubrimiento plantea graves preocupaciones relacionadas con la privacidad, dado que esta técnica puede aplicarse a cualquier dato (no sólo fotografías del rostro), esto abre la puerta, por ejemplo, a descubrir si los datos médicos de alguien se habían usado para entrenar una red neuronal asociada con una enfermedad, revelando a dicha persona como paciente.

Más aún: nuestros dispositivos móviles cada vez hacen un uso más intensivo de la IA, pero a causa de las limitaciones de batería y memoria, los modelos a veces solo se procesan a medias en el propio dispositivo y se envían a la nube para su procesamiento final, un enfoque conocido como 'computación dividida'. Esto se hace porque se asume que dicha técnica no revelará ningún dato privado, pero este nuevo 'ataque de membresía' muestra que ese no es el caso.

Por fortuna, saber eso también tiene dos usos positivos:

  1. Permite descubrir si tu imagen (o la de una de tus obras audiovisuales) ha sido usada sin tu permiso para entrenar una red neuronal.

  2. Permitirá, eventualmente, crear salvaguardias en las GANs para asegurarse de que las imágenes que generen estén adecuadamente anonimizadas.

Vía | MIT Technology Review

Comentarios cerrados
Inicio