Google explica qué falló en su generador de imágenes con Gemini para que fuera tan ofensivamente inclusivo

Después de ofrecer imágenes de nazis negros o inesperadas parejas interraciales en la Alemania del siglo XIX, Google da explicaciones

Google
12 comentarios Facebook Twitter Flipboard E-mail

Después de desatar la polémica, Google da explicaciones. Hace unas horas unos tweets en X sacaban los colores a Gemini. Más concretamente, a la herramienta multimodal de generación de imágenes con inteligencia artificial. Tanto es así, que Google decidía pausarla en la generación de personas.

Uno de los grandes problemas de los modelos de inteligencia artificial es que en su entrenamiento se producen sesgos. Así que a grandes males, grandes remedios: Google añadía una capa de inclusividad para lidiar con los estereotipos raciales y de género.

El problema está en que al pedirle algo como 'soldados de la Alemania nazi de los años 30', te devolviera lo que ves sobre estas líneas: personas negras o con rasgos asiáticos vestidas con uniformes nazi. Imprecisión histórica y sensibilidades heridas. Tras la polémica, Google se disculpaba en X y posteriormente se ha extendido con una explicación más detallada de los errores de Gemini en su blog.

Las explicaciones de Google a un Gemini tan inclusivo que se pasa de la raya

En una entrada firmada por Prabhakar Raghavan, el vicepresidente senior de  Google en las áreas búsqueda, Assistant, ads, Geo (Maps) y otras áreas de productos relacionados.

Empieza la publicación reconociendo el error y pidiendo disculpas. Google dice que 'no quiere que Gemini se niegue a crear imágenes de ningún grupo en particular' o 'cree imágenes históricas o de cualquier otro tipo inexactas', lo que en la práctica puede suponer dos conceptos antagónicos.

Así, explica que si le introduces a Gemini un prompt solicitando imágenes de un tipo específico de persona, como 'un profesor negro en una clase o un veterinario blanco con un perro o gente en un contexto cultural o histórico particular, deberías obtener una respuesta que refleje con precisión lo que pides'.

La empresa de Mountain View dice haber identificado dos problemas como responsables de lo ocurrido. Más concretamente que:

  • 'nuestro ajuste para garantizar que Gemini mostrara una variedad de personas no tuvo en cuenta los casos en los que claramente no debería mostrar una variedad'.
  • 'con el paso del tiempo, el modelo se volvió mucho más cauteloso de lo que pretendíamos y se negó a responder ciertas indicaciones por completo, interpretando erróneamente algunos prompts muy anodinas como sensibles'

Como consecuencia, la herramienta de generación de imágenes de Gemini, que funciona con Imagen 2, ha 'sobrecompensado en exceso en algunos caso y ha sido demasiado conservadora en otros'.

Como ya había asegurado previamente, Google ha prometido trabajar para seguir mejorando antes de volver a activar esta función para personas, realizando 'pruebas exhaustivas'.

Un comentario de lo más interesante. En la entrada,  Raghavan distingue claramente entre Gemini y su buscador, recomendando encarecidamente confiar en la búsqueda de Google, donde explica que sus 'sistemas separados muestran información nueva y de alta calidad' de este tema con fuentes de toda la web.

El comunicado cierra con una advertencia: no pueden prometer que no volverá a pasar, abriendo las puertas a nuevos resultados inexactos, ofensivos y embarazosos. Eso sí, seguirán tomando medidas para remediarlo. Finalmente, resalta el potencial de la inteligencia artificial como tecnología emergente y con muchas posibilidades.

Portada | Montaje con imágenes de Google Gemini en X de Xataka

En Genbeta | Las inteligencias artificiales 'mienten' porque alucinan, y el ChatGPT de Bing alucina aún más. Los JPG ayudan a entender por qué

Inicio