Google está buscando una nueva paleta de tonos de piel para evitar los sesgos raciales en sus productos

Google está buscando una nueva paleta de tonos de piel para evitar los sesgos raciales en sus productos
4 comentarios Facebook Twitter Flipboard E-mail

Google se encuentra trabajando en el desarrollo de medidas alternativas al sistema de clasificación de tonos de piel estándar en el sector tecnológico con el objetivo de asegurarse de un funcionamiento adecuado de sus productos con todo tipo de personas.

En la actualidad, las compañías emplean la conocida como escala Fitzpatrick, una clasificación para el color de piel desarrollada en 1975 que simplifica los diferentes tonos en seis —cuatro para la piel "blanca", uno para la "morena" y otro para la "negra"— y está pensada desde un punto de vista dermatológico. Sin embargo, investigadores y profesionales de esta especialidad consideran que es inadecuada para evaluar posibles sesgos por su falta de atención a la diversidad.

La escala de tonos de piel que suelen usar las tecnológicas para evaluar sus productos recoge cuatro tonos para la piel "blanca", uno para la "morena" y otro para la "negra"

Por eso, los de Mountain View trabajan en medidas alternativas, según han contado a Reuters.

Una escala con falta de diversidad

Los investigadores del Departamento de Seguridad Nacional de Estados Unidos recomendaron abandonar la escala Fitzpatrick para evaluar el reconocimiento facial porque representa mal la gama de colores en poblaciones diversas, dijeron en una conferencia sobre estándares tecnológicos federales celebrada el año pasado. Una cuestión sobre la que la agencia de noticias preguntó a Google.

"Estamos trabajando en medidas alternativas, más inclusivas, que podrían ser útiles en el desarrollo de nuestros productos, y colaboraremos con expertos científicos y médicos, así como con grupos que trabajan con comunidades de color", explicaron, declinando aportar más detalles.

Los investigadores del Departamento de Seguridad Nacional de Estados Unidos recomendaron abandonar la escala Fitzpatrick

Los problemas derivados del uso de esta escala y, sobre todo, de los sesgos raciales y de género en general, viene de lejos: se arrastran desde los años 80. Ya en mayo de 2019, de hecho, la compañía californiana aseguraba estar trabajando para solucionar los sesgos de la inteligencia artificial. Amazon, en 2018, tuvo que deshacerse de una IA de reclutamiento por su sesgo contra las mujeres. Y el problema, como es habitual, lo encontramos en la base de datos que sirve de referencia.

Google también ha sido protagonista mediática por sus sesgos. La inteligencia artificial que analiza las imágenes subidas a Google Fotos etiquetaba como gorilas a dos personas de color. Se disculparon por ello, pero su solución temporal, mientras encontraban una definitiva, fue eliminar la etiqueta gorila de la aplicación. Tres años después, la nueva solución fue similar: impedir que Fotos identifique a gorilas. En Wired señalaban que el servicio simplemente no mostraba resultados cuando se hacían búsquedas para los términos "gorila", "chimpancé" y "mono", aunque hubiese fotos de dichos animales.

Los sesgos raciales y de género se arrastran desde los años 80

Más recientemente, Google despidió a una investigadora que atribuyó la decisión a su denuncia del sesgo en la inteligencia artificial. Timnit Gebru, la trabajadora, es conocida por la investigación que llevó a cabo junto con Joy Buolamwini que mostraba cómo los sistemas de reconocimiento facial disponibles comercialmente identificaban correctamente el género de los individuos cuando eran varones de piel clara y fallaban notablemente cuando se trataba de personas de piel oscura, alcanzando una tasa de error del 35 % en el caso de las mujeres.

Encontrando una medida alternativa de tonos de piel más efectiva que la escala usada hasta ahora, se espera que Google y otras compañías puedan poner a prueba de una mejor manera sus algoritmos de inteligencia artificial y productos como los sensores relacionados con la salud de productos como los relojes inteligentes.

Vía | Mixx.io

Comentarios cerrados
Inicio