Publicidad

El algoritmo de Facebook identifica una imagen de cebollas como "sexualmente explícita" (y no es la primera vez que pasa algo así)

El algoritmo de Facebook identifica una imagen de cebollas como "sexualmente explícita" (y no es la primera vez que pasa algo así)
8 comentarios

Hace unos días, la empresa canadiense The Seed Company, dedicada al sector agrícola, decidió iniciar una campaña publicitaria en Facebook para promocionar semillas de una popular variedad francesa de cebolla conocida como Walla Walla.

Pero, para sorpresa de su gerente, la red social le notificó que el anuncio no había superado el habitual proceso de comprobación, porque estaba prohibido "posicionar productos o servicios de una manera sexualmente sugerente".

El problema (y el motivo de la sorpresa) es que la foto que acompañaba al anuncio se componía únicamente de varias cebollas Walla Walla en una cesta de mimbre, una de ellas cortada por la mitad.

Facebook Blocks Onion

¿Qué ha ocurrido, entonces? La culpa no es de ningún moderador de contenido de Facebook fetichista, sino de los sistemas automatizados de moderación, basados en inteligencia artificial.

Jackson McLean, el citado gerente, supone que, a ojos del algoritmo, "las dos formas redondas de la imagen han podido ser malinterpretadas como senos o algo así". Aún así, le sorprende que Facebook hable de contenido 'sexualmente explícito", "como si fuese imposible no ver algo sexual ahí".

Screenshot 23 El Facebook de la empresa se tomó a bien la polémica: "Creemos que esto fue lo que vio el algoritmo de Facebook".

McLean se mostró confiado en que "algún humano real pueda echar un vistazo a la foto para concluir que en realidad no tiene nada de sexual: sólo son cebollas".

Efectivamente, poco después Facebook aprobó el anuncio y envió un comunicado de disculpa a The Seed Comapny. Meg Sinclair, jefa de comunicaciones de Facebook Canadá, Meg Sinclair, confirmó que el problema radicaba en la inteligencia artificial:

"Usamos tecnología automatizada para mantener la desnudez fuera de nuestras aplicaciones, pero a veces no distingue una cebolla de, bueno, ya sabes...".

¿La inteligencia artificial tiene la mirada sucia?

No es, sin embargo, el primer caso de este tipo: hace ya tres años, la Policía Metropolitana de Londres desarrolló un software de reconocimiento de imágenes para facilitar la detección de delitos, confiando en que en poco tiempo podrían convertirlo en una tarea 100% automática.

Dunas "Duna que mano no cubre..."

Sin embargo, se dieron cuenta de que la IA que había desarrollado identificaba las dunas de desiertos (elemento omnipresente en fondos de pantalla) como escenas de cuerpos desnudos. Mark Stokes, jefe de la sección digital del departamento forense, tuvo que reconocer que tal vez la herramienta no era todavía lo "suficientemente sofisticada".

Un año antes, la IA de Instagram también había evidenciado su 'mirada sucia' confundiendo una tarta típica del Reino Unido con un pecho femenino, lo que llevó a la suspensión de la cuenta de la confundida cocinera:

El motivo de todas estas confusiones es que la inteligencia artificial no ve las mismas cosas en una imagen que el ojo humano: nosotros, cuando vemos, percibimos sobre todo formas, pero las máquinas son mejores reconociendo texturas. Eso les permite ver cosas que a nosotros se nos escapan, pero también ser manipuladas.

Vía | BBC

Temas

Publicidad

Publicidad

Publicidad

Inicio

Explora en nuestros medios