"El algoritmo tiene sesgos perturbadores y peligrosos" Un ex ingeniero de YouTube critica cómo se fabrican los vídeos recomendados

"El algoritmo tiene sesgos perturbadores y peligrosos" Un ex ingeniero de YouTube critica cómo se fabrican los vídeos recomendados

11 comentarios Facebook Twitter Flipboard E-mail
"El algoritmo tiene sesgos perturbadores y peligrosos" Un ex ingeniero de YouTube critica cómo se fabrican los vídeos recomendados

YouTube tiene serios problemas con el contenido en su plataforma, mientras se disculpan y toman medidas contra la ola de vídeos peturbadores dirigidos a niños, también está fresca la polémica de Logan Paul, el famoso youtuber que mostró un vídeo de un suicidio mientras se burlaba, un vídeo que fue promovido en las tendencias de YouTube y visto seis millones de veces.

Es evidente que algo necesita cambiar dentro de YouTube. Según un ex ingeniero de la empresa que trabajó con el sistema de recomendaciones, el algoritmo de YouTube no está optimizando lo que es veraz, equilibrado o saludable para la democracia, y está lleno de sesgos perturbadores.

Guillaume Chaslot, un programador francés de 36 años con un doctorado en inteligencia artificial, trabajó en Google durante tres años, y habló con The Guardian sobre cómo parte de ese tiempo lo pasó trabajando con el equipo encargado del sistema que usa YouTube para recomendar vídeos a los usuarios.

Chaslot cree que las prioridades que YouTube le da al algoritmo tienen sesgos peligrosos.

YouTube es algo que luce como la realidad, pero que está distorsionado para hacerte pasar más tiempo en linea. El algoritmo de recomendación no está optimizando para lo que es veraz, o balanceado, o saludable para la democracia.

Un vistazo a…
CÓMO DESCARGAR VÍDEOS de Instagram, Facebook, Twitter o TikTok en tu MÓVIL

Sugerir vídeos que mantengan a la gente conectada para aumentar las ganancias

Youtube Algoritmo

Explica que los ingenieros con los que trabajó eran responsables de experimentar constantemente con nuevas formulas que aumentarán los ingresos por publicidad extendiendo el tiempo que la gente pasa mirando vídeos.

"La prioridad es el tiempo que se miran los vídeos, todo lo demás es una distracción."

A Chaslot le preocupa especialmente la distorsión que resulta de enfocarse solo en mostrar a la gente vídeos que encuentren irresistibles, encerrando a los usuarios en una burbuja que les muestra contenido que solo refuerza su visión del mundo. Algo que de lo que ya se ha acusado a Google de hacer con su buscador.

El desarrolador dijo haber propuesto cambios para arreglar estos problemas en YouTube, pero no fueron tomados en cuenta. Chaslot dice que existen muchas formas en las que YouTube puede cambiar sus algoritmos para eliminar las noticias falsas y mejorar la calidad y diversidad de los vídeos que la gente ve, pero no lo hacen.

YouTube ahora dice que desde que Chaslot dejó la empresa, el sistema de recomendaciones ha evolucionado y ahora optimizan más allá del tiempo que pasa el usuario mirando, con varios cambios en 2016 y 2017 enfocando más importancia en la "satisfacción" del usuario y desalentando la promoción de vídeos con contenido inflamatorio.

Cambios que empiezan a llegar más de una década después de que Google comprase YouTube en el 2006. Y, que coinciden con las grandes pérdidas de anunciantes que han visto sus marcas asociadas con contenido extremista.

YouTube y su influencia en las decisiones de la gente

Youtube

Durante los últimos 18 meses, Chaslot ha estado usando un programa que diseñó para explorar la parcialidad en el contenido promovido por YouTube durante las elecciones francesas, británicas y alemanas, sobre el calentamiento global y los tiroteos en masa.

Los resultados están publicados en Algotransparency.com. Y, aunque cada estudio encuentra algo diferente, la investigación sugiere que YouTube amplifica sistemáticamente los vídeos que son divisivos, sensacionalistas o conspiratorios.

Cree que el algoritmo de YouTube también jugó un rol importante en las elecciones estadounidenses de 2016, empujando a la gente en una dirección pro-Trump. Estos algoritmos que moldean el contenido que vemos tienen un gran impacto en las decisiones que toma la gente, especialmente quienes están indecisos.

YouTube no está de acuerdo con los hallazgos de Chaslot e insisten en que sus sistema de recomendaciones refleja lo que la gente busca, que no está parcializado a favor de nadie.

Pero no sabemos como funciona el algoritmo realmente, pues es una tecnología privativa. Entonces, ¿cómo determina YouTube el interés de la gente en algo?, y ¿no influye acaso YouTube en los vídeos que la gente elige ver si son ellos quienes ofrecen las recomendaciones?

YouTube es la segunda red social más grande del planeta con 1500 millones de usuarios activos, solo por detrás de Facebook, otra plataforma que ha sido enormemente criticada por ser dañina para los usuarios y la sociedad, precisamente por promover el caos y el contenido divisivo usando algoritmos que buscan aumentar las ganancias manteniendo a los usuarios pegados a su pantalla para vender publicidad.

En Xataka | YouTube Kids y el terror: hay quien se dedica a asustar y traumatizar a los niños de forma sistemática, automatizada y masiva
En Genbeta | Algunos estadounidenses piensan que Facebook es tan malo para la sociedad como el tabaco o McDonald's

Comentarios cerrados
Inicio