Google vuelve a eliminar una de las funciones de sus productos para evitar problemas con los prejuicios de su IA

A finales de abril de 2018 Google presentó el nuevo Gmail, una actualización con nuevo diseño y cargada de otras novedades, entre ellas se encontraban las respuestas inteligentes y un asistente de escritura para ayudarnos a escribir emails sugiriendo la siguiente palabra sin que tengamos que escribirla completa.

Esta predicción es posible gracias a la inteligencia artificial de Google llamada "Smart Compose". Pero ahora la compañía ha decidido eliminar los pronombres femeninos y masculinos de las predicciones para evitar que los acusen (otra vez) de que tienen una IA con prejuicios.

Gmail ya no sugerirá pronombres personales porque el riesgo de que la tecnología se equivoque a la hora de predecir el sexo o identidad de género de una persona es muy alto. El director de producto de Gmail, Paul Lambert, le explicó a Reuters que "no todos los errores son iguales y que el género es algo muy importante como para equivocarse".

El riesgo de que la tecnología se equivoque a la hora de predecir el sexo o identidad de género de una persona es muy alto

Es algo que Smart Compose podría predecir incorrectamente y arriesgarse a ofender al destinatario. Un investigador de la empresa descubrió el problema en enero cuando escribió "Me voy a reunir con un inversor la próxima semana", a lo que la herramienta de predicción le sugirió "¿Quieres reunirte con él?" en lugar de "Ella".

Basándose en los datos de los emails que envían y reciben los 1.500 millones de usuarios de Gmail, la IA pensó que el inversor muy probablemente era hombre y era muy difícil que fuese mujer. Todo se complica aún más si se tratase de una persona que prefiere un pronombre neutro. La decisión de Google es eliminar por completo la predicción de pronombres para evitar críticas y problemas a sus usuarios.

Un vistazo a…
'Sgroogled.com': cuando MICROSOFT lanzaba anuncios ANTI-GOOGLE

Las IA también aprenden de nuestros prejuicios

Tampoco es primera vez que una IA de Google sufre de estos males, en 2015 el algoritmo de Google Fotos etiquetó las fotos de dos personas negras como "Gorilas" y tras días de disculpas y una polémica que pronto se olvidó, tres años después Google decidió que la "solución" era simplemente bloquear a los gorilas y pretender que no existen para evitar que el algoritmo racista actuara de nuevo.

Y si queremos buscar un ejemplo más desastroso de como una IA puede aprender de lo peor de la sociedad, solo hay que recordar a Tay, el bot de Microsoft que tuvo de ser retirado por racista y por llegar incluso a publicar consignas nazis.

Sin ser expertos poco podemos decir sobre el nivel de dificultad y el esfuerzo que representaría corregir el comportamiento de una IA como esta,
después de todo estos modelos predictivos aprenden de los datos que se le alimentan, y el mundo es un lugar lleno de prejuicios. Sin embargo, Google nuevamente parece elegir eliminar una función y no intentar corregir el problema de base.

Ver todos los comentarios en https://www.genbeta.com

VER 4 Comentarios

Portada de Genbeta