Cómo la inteligencia artificial puede mejorar la accesibilidad, según Google

Google ha querido centrarse en su I/O 2019, principalmente, en novedades para sus terminales. Sin embargo, tanto en la presentación como en su blog, han hablado acerca de las capacidades de la inteligencia artificial para mejorar la accesiblidad.

Poner la tecnología al servicio de las personas con capacidades reducidas o limitadas no viene de nuevas, y es que no hay mejor ejemplo que la propia máquina que usaba Stephen Hawking para mostrar que es posible mejorar la vida de una persona gracias a la tecnología.

Google, sin embargo, ha hecho hincapié en la inteligencia artificial más que en el hardware, mostrando las capacidades de sus servicios para mejorar dicha accesibilidad.

Cómo pretende Google atajar los problemas de la accesibilidad

Google presentó hace tiempo la traducción en tiempo real a través de Google Assistant, algo que ha pasado a tener una mayor integración con Google Lens, su método para integrar la inteligencia artificial dentro de la cámara de los teléfonos.

En la presentación de hoy, Google ha mostrado cómo Google Lens es capaz de traducir y recitar el texto que capta la cámara en tiempo real, algo que permite a cualquier persona entender el texto que tiene delante. Esto, cobra especial relevancia cuando la persona no sabe leer, ya que con tan solo enfocar la cámara al texto, podrá oír lo que este quiere decir.

Google ha centrado el discurso en las capacidades de su IA a la hora de reconocer el mensaje de las personas con habla alterada

Asimismo, la compañía ha mostrado sus capacidades para mejorar la accesibilidad de las personas con habla alterada (Esclerosis múltiple, Parkison, ELA y demás lesiones). Su solución para con ellas es el Project Euphonia, encargado de poner la IA al servicio de la accesibilidad. Mediante el registro de las voces de las personas con este tipo de capacidades limitadas y su posterior transcripción, logran transcribir a teléfonos y ordenadores el mensaje que quieren transmitir.

Esto se logra mediante el registro de miles de frases recitadas por los usuarios del programa. El espectograma de las mismas se utiliza para entrenar a la IA, de forma que va aprendiendo a entender el significado de las frases, aunque sus ondas sean distintas de las que mostraría una persona sin dichas limitaciones. Sin querer ceñirse únicamente al habla, Google cuenta asimismo en su blog que están trabajando para lograr transcribir sonidos y gestos de personas con capacidades limitadas.

Vía | Google Blog

Ver todos los comentarios en https://www.genbeta.com

VER 0 Comentario

Portada de Genbeta