De nuevo, Google destaca contenido ofensivo en sus resultados

De nuevo, Google destaca contenido ofensivo en sus resultados
13 comentarios Facebook Twitter Flipboard E-mail

Al igual que muchas personas confían en la televisión, en todo aquello que emiten sus canales favoritos, muchos usuarios confían ciegamente en la red. De una forma especial en aquellos sitios a los que otorgan autoridad por su importancia, como Facebook o Google. Aquí surge el problema de las fake news en la red social o el de la promoción de contenido ofensivo o impreciso en el buscador. Una historia, esta última, que cuenta hoy con un nuevo capítulo.

En The Verge lo han contado: un usuario consulta el término "gender fluid" en Google (en inglés) y el buscador devuelve en uno de sus fragmentos enriquecidos una entrada de Wikipedia junto a un meme insultante proveniente de un subreddit.

Un vistazo a…
'Sgroogled.com': cuando MICROSOFT lanzaba anuncios ANTI-GOOGLE

No es la primera vez, la historia se repite

Desde que Google se popularizó como uno de los buscadores más importantes del planeta, hace años, se han empleado técnicas para engañarlo alterando sus resultados. Es lo que se conoce como black hat SEO. Los de Mountain View, por su lado, nunca se han quedado quietos. Mejoran su algoritmo constantemente, buscan resultados engañosos para excluirlos e intentan evitar las adulteraciones.

Pese a los esfuerzos, graves errores como el que nos ocupan son relativamente frecuentes. A veces, sin ni siquiera el empleo de malas artes para el posicionamiento de determinados contenidos, como parece ser el caso.

Hace junto un mes, precisamente, el algoritmo de Google colocó en lo más alto de sus resultados acusaciones de unos grupos de extremaderecha. Se acababa de producir un tiroteo en Las Vegas y estos individuos acusaban a un hombre, falsamente, como su autor. Pese a no ser ninguna información oficial, el buscador mostraba toda clase de contenido en el que esta persona era señalada si se introducía su nombre.

Google destacó en el pasado falsas acusaciones de grupos de extremaderecha sobre un tiroteo en Las Vegas

Otro sonado caso fue el que implicaba al dispositivo Home de la compañía estadounidense. Se le preguntaba si las mujeres eran malas y él, tomando uno de estos primeros resultados, contestó: "Toda mujer tiene algún grado de prostituta en su interior".

La nueva falla nos recuerda, también, al reciente bloqueo en Twitter del término "bisexual" y contrasta con la noticia que surgió el pasado marzo.

Según diferentes medios, la compañía dio instrucciones a sus equipos de vigilancia y supervisores de calidad para que etiquetasen contenido que pudiese resultar ofensivo o insultante. "Aun cuando tales resultados satisfagan las intenciones del usuario", leíamos entonces. La intención no parecía ser eliminarlos, pero sí penalizarlos de algún modo. En este caso en particular, ni estas medidas ni las que lleve implementadas el algoritmo han funcionado. Más ajustes son necesarios.

En Xataka Móvil | La hegemonía de Google como buscador en móviles crece y alcanza una cuota demencial

Comentarios cerrados
Inicio