DALL-E Mini es una IA empeñada en mostrarnos imágenes de mujeres indias con 'sari'… y su creador desconoce la razón

DALL-E Mini es una IA empeñada en mostrarnos imágenes de mujeres indias con 'sari'… y su creador desconoce la razón
5 comentarios Facebook Twitter Flipboard E-mail

Ya te hemos hablado antes de DALL-E Mini, la versión simplificada y menos potente de la IA generadora de imágenes DALL-E 2; recientemente, la desarrolladora de esta última (OpenAI) ha exigido a los creadores de Mini que la renombren para no inducir a la confusión entre ambas y así ha surgido Craiyon.

Sin embargo, la noticia es que, la usemos bajo el nombre que la usemos, se ha descubierto un fenómeno bastante curioso que se da en DALL-E Mini a la hora de generar imágenes. Y ni siquiera su creador, el artista Boris Dayma, ha sido capaz de explicar la razón del mismo.

Si ahora hay quien dice que la IA "tiene sentimientos"… ¿es que quizá también tiene fetichismos?

Todo empezó, tal y como recoge Rest Of The World, cuando el guionista brasileño Fernando Marés, fascinado por las imágenes que generaba DALL-E Mini, decidió hacer un experimento: dejar el campo de texto de su web en blanco antes de pulsar el botón de generar imágenes, permitiendo así que la IA ofrezca resultados aparentemente aleatorios.

Marés repitió el experimento docenas de veces, hasta que percibió algo extraño: en casi todas las ocasiones, al menos una de las nueve 'fotos' de cada tanda representaba a una mujer de la India con la vestimenta típica, el 'sari'.

Sari
Nosotros también lo hemos probado. Y, efectivamente, hay mujeres con sari en 3 imágenes (de un total de 3 intentos).

Nuestro protagonista se quedó tan extrañado con este comportamiento de DALL-E Mini que se propuso recopilar (en compañía de varios amigos) hasta 5.000 fotos generadas por la IA actuando en modo aleatorio. Y, efectivamente, la mayor parte de las imágenes mostraban mujeres indias con sari (en varios casos, más de una).

Boris Dayma, su creador, admite que está perplejo ante esto, si bien sospecha que tiene algo que ver con el dataset usado para entrenar el modelo de la IA. Recordemos que, en el pasado, algunas acusaciones de sesgo racial contra inteligencias artificiales tenían su origen, realmente, en un sesgo humano en la selección de imágenes; Dayma admite que esta IA sigue estando en desarrollo, y que el alcance de sus posibles sesgos aún no se ha documentado completamente.

"Es bastante interesante y no estoy seguro de por qué sucede. […] Es posible que este tipo de imagen estuviera sobrerrepresentada en el conjunto de datos".

Otras voces señalan que, aunque ese tipo de imágenes no tuvieran una presencia desproporcionada en el dataset, si estaban etiquetadas usando alfabetos propios de la India (en lugar de en letras latinas), dichas etiquetas podrían no haberse procesado bien, vinculando a ojos de la IA dichas fotos con la inexistencia de etiquetas, lo que explicaría por qué genera imágenes similares cuando se le pide una imagen aleatoria (es decir, carente de etiquetas).

Esa es, por lo menos, la teoría que Michael Cook, experto en IA de la Univ. Queen Mary de Londres, formuló para The Rest of the World una vez empezó a revisar los datos recopilados por Marés. Éste último, en cualquier caso, se muestra intranquilo ante el hecho de que ni el creador del modelo ni un experto en IA puedan tener claro lo que está pasando. A sus ojos, esto "da la razón" a lo que los medios y los críticos de la IA "llevan años diciendo", que se trata de una tecnología "impredecible".

Comentarios cerrados
Inicio