'About Face': Adobe muestra la función capaz de adivinar si una cara ha sido modificada con inteligencia artificial

'About Face': Adobe muestra la función capaz de adivinar si una cara ha sido modificada con inteligencia artificial
1 comentario Facebook Twitter Flipboard E-mail

Ayer tuvo lugar la segunda jornada del evento anual de Adobe, el Adobe Max. En ella, el día anterior se anunció una alianza entre Twitter, The New York Times y la propia Adobe, centrada en desarrollar un sistema de atribución para imágenes en Internet que, además, sirva para combatir las noticias falsas.

En ese sentido, ayer mostró como parte de sus funciones experimentales 'About Face', una herramienta capaz de distinguir mediante técnicas de aprendizaje automático entre caras como son y versiones modificadas. Según Adobe, para identificar estas manipulaciones, la herramienta analiza las fotografías, y tras ello es capaz de mostrar las partes modificadas con un mapa de calor.

Para demostrar la función, se han valido de cambios realizados sobre las caras con las funciones de Photoshop de licuado con detección de rostros. Al analizar, la función arroja un porcentaje con el que se puede extraer una conclusión mucho más acertada que la que podría sacar un humano. Sobre todo, porque para el entrenamiento se han utilizado miles de imágenes modificadas enfrentadas a otras sin tocar.

La inteligencia artificial que crea los deepfakes también puede ser su peor enemiga

Pese a ver el buen funcionamiento que muestra Adobe con esta función experimental, alguien puede preguntarse para qué vale todo esto. Y la respuesta es clara. 2018 y 2019 han sido años en los que han proliferado los deepfakes. Empezaron preocupando por cómo introducían las caras de famosas en vídeos porno, que aunque eran de baja calidad, mostraban que en el futuro sería algo imparable.

Más recientemente, la problemática ha estado centrada que el uso que se podría hacer de ellos para manipular mensajes políticos. Es por ello que Facebook está desarrollando una inteligencia artificial para engañar a sistemas de reconocimiento facial, junto a un modelo de manipulación audiovisual. Esto lo quieren utilizar precisamente para luchar contra los deepfakes y mejorar la seguridad en reconocimiento facial. Adobe habla de que una inteligencia artificial puede detectar hasta un 99% de casos, frente al 50% humano.

Adobe y Twitter han dado el paso esta semana, pero Facebook y Microsoft se adelantaron lanzando un concurso para detectar vídeos con deepfakes en septiembre. Si los bulos han sido los grandes rivales de las elecciones presidenciales de países como Estados Unidos, Brasil o de fenómenos como el 'Brexit', los deepfakes cada vez más realistas apuntan a ser los grandes rivales de la limpieza democrática en la próxima década.

Comentarios cerrados
Inicio