Google dice estar trabajando para solucionar los sesgos de la IA aunque el principal problema no es ella, sino nosotros

Google dice estar trabajando para solucionar los sesgos de la IA aunque el principal problema no es ella, sino nosotros

1 comentario Facebook Twitter Flipboard E-mail
Google dice estar trabajando para solucionar los sesgos de la IA aunque el principal problema no es ella, sino nosotros

Un año más Google I/O nos ha dejado un buen montón de titulares y, entre todos ellos, no puede dejarse escapar el trabajo que desde Mountain View aseguran estar haciendo para salvar los sesgos de la inteligencia artificial. Un problema que se arrastra desde hace años y que no parece remitir con el avance tecnológico.

Concretamente, Sundar Pichai habló de una investigación que están llevando a cabo para obtener datos sobre el funcionamiento de los algoritmos de inteligencia artificial de la compañía y asegurarse, exponía el director general en la conferencia, de que no reforzasen los sesgos existentes en nuestro mundo.

Google dice querer defenderse de los sesgos creados por la inteligencia artificial y sus algoritmos con más transparencia

Estos esfuerzos de los que habla la compañía californiana, cuyas resultados estarán por ver en un futuro, se concentran especialmente en una tecnología que han llamado TCAV (siglas de testing with concept activation vectors).

Un vistazo a…
'Sgroogled.com': cuando MICROSOFT lanzaba anuncios ANTI-GOOGLE

No asumiendo lo inasumible

Tcav Doctor Google

El trabajo por hacer más transparentes los modelos de inteligencia artificial y aprendizaje automático, teniendo como objetivo la defensa de los prejuicios, se ejemplifican de forma excelente con uno de los ejemplos a los que se ha aludido: el del sector médico. Y en él resultará fundamental TCAV.

Esta tecnología es, en pocas palabras, un sistema que interpreta los indicios que toman los modelos de redes neuronales para llevar a cabo una predicción.

Por ejemplo, en el caso de los médicos y como puede verse en la imagen que precede estas líneas, se ve la importancia que se le da a los diferentes indicadores a partir de los cuales una inteligencia artificial actuaría.

Con TCAV, Google pretende saber cómo funcionan exactamente sus IA y, además, explicárselo al resto para tener claro por qué, en ocasiones, los sesgos aparecen. En el caso del doctor, el ejemplo al que aludíamos, un factor determinante para la inteligencia artificial es que son hombres. La idea es que esta identificación de los problemas que provocan los sesgos de estos sistemas no los refuerce.

En Google lo han llevado a la práctica, en cierto modo, con Euphonia. Un proyecto que pretende conseguir que las interfaces de voz, cada vez más comunes en el día a día tecnológico, resulten verdaderamente accesibles para todos. Por eso, uno de los principales focos de esta iniciativa va a ser recopilar más información sobre la voz de personas con problemas en el habla y, con ello, limitar el sesgo creado por el entrenamiento de las IA con datos limitados.

El problema, pese a todo, es humano

Street 1415546 1280

La existencia de sesgos raciales, de género y otro tipo en algoritmos de inteligencia artificial es un tema que lleva tiempo tratándose en los medios de comunicación a partir de casos mediáticos y preocupantes como, por ejemplo, el que hace un tiempo afectó a Amazon: una inteligencia artificial de reclutamiento era desechada por su sesgo contra las mujeres.

¿La razón de la existencia de este sesgo? Por la base de datos con la que había aprendido. La herramienta fue entrenada con patrones que podían observarse en los currículos presentados a la empresa durante una década. ¿Y qué género pertenecían la mayoría de esos currículums? Al masculino.

Sea como sea, el problema, pese a todo, es humano. O lo es en gran parte de las ocasiones. Un ejemplo de esto fue la creación de un algoritmo entre finales de los 70 y principios de los 80 en Reino Unido.

El problema de sesgo del algoritmo no era sólo técnico, sino también cultural, al reflejar el comportamiento humano

Un vicedecano de una escuela de medicina londinense se dedicaba, entre otro quehaceres, a evaluar las solicitudes de admisión. Y se propuso automatizar el proceso llevado a cabo por él y otro miembros del personal. Su objetivo, como contaban hace unas semanas en 'Xataka', era ahorrar tiempo y, de paso, suprimir las "inconsistencias" de criterios que mostraban ocasionalmente los evaluadores humanos, haciendo que el proceso fuese mucho más justo.

El resultado, sin embargo, no fue el esperado. Pese a que las calificaciones de los candidatos dadas por humanos y por el algoritmo eran coincidentes entre un 90 y un 95 % de las veces, lo que para los responsables demostraba la eficacia del sistema, con el tiempo se advirtió una falta de diversidad entre los candidatos seleccionados.

Una revisión de los criterios usados por el algoritmo concluyó que restaba valoración en función de si el candidato era "caucásico" o no y si su nombre era femenino. De hecho, se calculó que hasta sesenta personas habían sido excluidas por el algoritmo anualmente. La Comisión para la Igualdad Racial del Reino Unido señaló que el problema no era sólo técnico, sino también cultural, al reflejar el comportamiento humano. Un hecho que se sumaba a que una mayoría del personal no se preguntó siquiera por los criterios exactos que aplicaba el algoritmo. Por ser una decisión tomada por una máquina, supuestamente verificada, se daba por hecho que era incuestionable.

Comentarios cerrados
Inicio