Desde hace un tiempo, Google viene intentando facilitarnos aún más la vida ofreciendo las denominadas respuestas rápidas. Se trata de un sistema en el que, cuando hacemos preguntas especialmente importantes o comunes en el móvil, en vez de ofrecernos varios resultados Google directamente nos habla para recitarnos la respuesta más popular a nuestra duda.
Pero este intento de ofrecernos la mejor respuesta posible de forma instantánea aún está lejos de ser totalmente fiable. Sobre todo si vemos las respuestas que han recopilado en Search Engine Land, donde han descubierto que este sistema hace que en ocasiones Google responda con rumores o información totalmente falsa.
Por ejemplo, una de las respuestas más polémicas es cuando se le pregunta a Google qué presidentes de Estados Unidos han formado parte del Ku Klux Klan, y este recita una lista de presidentes acusándoles sin tener ningún tipo de pruebas, y utilizando como fuente un blog de Wordpress con una credibilidad bastante dudosa.
El problema aquí, viene sobre todo en la manera en la que el buscador selecciona sus respuestas rápidas. No parece hacer ningún tipo de estudio buscando la fuente más fiable, sino que simplemente se limita a recitar las respuestas de la página mejor posicionada. De esta manera, todo depende del SEO y su algoritmo de posicionamiento en vez de la credibilidad.
El método puede ser bueno para la mayoría de preguntas, pero cuando entramos en la nave del misterio e intentamos preguntar cosas morbosas o referentes a noticias y rumores falsos, ahí donde las páginas mejor posicionadas no tienen por qué ser fiable, todo se va al garete. Esto es especialmente preocupante en una época en la que la gente suele fiarse ciegamente con lo que se comparte en Internet sin molestarse en mirar si una información es verdadera o falsa.
La desinformación puede llegar a tal punto que Google puede decir barbaridades como que Obama está planeando un golpe de estado comunista, o que los dinosaurios son un invento para adoctrinar a los niños y que estos no crean que la tierra tiene sólo unos miles de años como dice la biblia. Respuestas que, como decimos, pueden ser peligrosas y desinformar más de lo que informan.
Los asistentes virtuales tendrán que lidiar con ello
Google Home giving that horrible answer to "are women evil" on Friday. Good article on issues; I'll have more later https://t.co/EUtrx4ZFul pic.twitter.com/Ec8mEqx8Am
— Danny Sullivan (@dannysullivan) 4 de diciembre de 2016
Este problema con las respuestas rápidas de Google repercute directamente en asistentes como Google Home, los cuales responden a cualquiera de nuestras preguntas basándose en las búsquedas en el buscador. Como vemos en el tuit, recogido también por Search Engine Land, esto puede llevar a que el asistente virtual de Google te recite respuestas sexistas o insultantes como que cada mujer tiene una prostituta dentro de ella.
Esto, como comprenderéis, es un problema de cara a un inminente futuro en el que cada vez más casas cuenten con estos dispositivos conectados. Y es que, como han dicho otros medios que han cubierto este tema como The Outline, este tipo de respuestas de Google pueden ser peor que las noticias falsas de las que tanto venimos hablando en los últimos meses.
¿Y cómo solucionar esto? Según Eric Enge, CEO de Stone Temple Consulting, la solución más rápida sería que Google permitiese que cada vez más usuarios interactúen con su sistema de respuestas rápidas o snippets. Y para eso tendría que liberarlo globalmente, ya que por ejemplo desde España no podemos acceder a este tipo de respuestas.
¿Y qué se consigue con ello? Si te fijas en las capturas, debajo de cada una hay un enlace "Feedback", con lo cual serían los propios usuarios los que irían arreglando el algoritmo. Y más les vale hacerlo pronto, porque tanto Google como otras empresas como Amazon están compitiendo en una auténtica carrera por implantar en nuestras casas sus asistentes virtuales, y que la información que nos ofrezcan sea falsa puede ser un problema a medio o largo plazo.
“Los fragmentos que aparecen en las búsquedas proporcionan una respuesta automática y algorítmica para una búsqueda concreta, y el contenido proviene de sitios de terceras partes. Desafortunadamente, en ocasiones podemos mostrar fragmentos de un sitio con contenido inapropiado o engañoso. Cuando recibimos una alerta de que uno de estos fragmentos viola nuestras políticas, trabajamos rápidamente para eliminarlo, que es lo que hemos hecho en este caso. Sentimos cualquier ofensa que esto haya podido causar.”
Vía | Search Engine Land
En Genbeta | Facebook vuelve a manipular el feed de noticias para penalizar noticias falsas y sensacionalistas
Ver 3 comentarios