Directivos de YouTube dieron órdenes a empleados para que los vídeos tóxicos no dejaran de recomendarse, según Bloomberg

Directivos de YouTube dieron órdenes a empleados para que los vídeos tóxicos no dejaran de recomendarse, según Bloomberg

11 comentarios Facebook Twitter Flipboard E-mail
Directivos de YouTube dieron órdenes a empleados para que los vídeos tóxicos no dejaran de recomendarse, según Bloomberg

Cuando hablamos de desinformación, Facebook es la compañía que suele tener nuestra atención, por lo que pasa en la red social homónima, en Instagram o en WhatsApp. YouTube, sin embargo, aunque también suele encontrarse rodeada de polémica, suele salir más airosa de sus responsabilidades en cuanto a contenido político extremista, movimientos conspiranoicos y desinformación en general. Es así hasta que se miran los pasos desde hace tiempo de la plataforma, como ha hecho Bloomberg en un extenso reportaje.

El artículo repasa distintas épocas dentro de YouTube, pero centrándose en la etapa actual, la figura de sus directivos más altos no sale bien parada. La sucesión de hechos no acompaña a Susan Wojcicki, la actual CEO de YouTube, tras desvelar hace un año la solución que podría frenar la desinformación: el famoso cuadro de texto de Wikipedia y otras fuentes autorizadas establecidos para desmentir hechos como la falsa llegada a la Luna en 1969. Como recoge el reportaje, un año después, YouTube está incluso más asociada con hechos oscuros y considerados nocivos para la sociedad.

Los vídeos negativos son más virales y enganchan más, y eso favorece un negocio publicitario como el de YouTube

Youtube

La cuestión de la que se habla desde hace mucho tiempo alrededor de YouTube, y que el artículo refuerza, es que el problema no es la existencia de este tipo de vídeos oscuros, sino que algoritmos e inteligencia artificial permitan que los contenidos se propaguen masivamente, e incluso los refuercen proactivamente en los apartados de recomendaciones. El hecho más sorprendente de la investigación, en ese sentido, es que los trabajadores recibían órdenes de no catalogar los vídeos como nocivos (lo que habría hecho que el algoritmo dejara de recomendarlos), de que no estudiaran el fenómeno de cómo son más populares que otra clase de vídeos o de que no analizaran el problema en conjunto.

¿Por qué recibieron esas órdenes contra algo en teoría positivo para la salud de la plataforma? Según Bloomberg, porque YouTube perseguía desesperadamente lo que conocemos como 'engagement', es decir, conseguir que los usuarios pasen más tiempo en una plataforma. Con ello, no sólo ven más horas de vídeo, sino que ven muchos más anuncios, que son la fuente básica de ingresos de la plataforma y de Google en general. Además, según se desprende también del reportaje, cuanto menos conociera YouTube en profundidad, más fácil sería evitar potenciales problemas legales. Es por ello que había incluso abogados impidiendo que empleados tomaran cartas en el asunto.

Pero no siempre fue así. Micah Schaffer, un histórico de la compañía que fue contratado en 2006, recuerda que aunque en los primeros años fuertes ya había problemas con el contenido, se lidiaba con ello de otra forma. Sin llegar a la extensión actual, tenían una política clara de restringir vídeos nocivos, como los que impulsaban la anorexia. Un método, por ejemplo, era el de establecer restricciones de edad, porque "amenazaban la salud de los usuarios.

"Podíamos tener una hemorragia de dinero, pero al menos los perros patinando nunca mataron a nadie", reconoce un exempleado

La situación actual con vídeos tóxicos, repasa el ya exempleado, no habría tenido lugar con las política de la época: "Los habríamos restringido fuertemente o los habríamos prohibido por completo. YouTube nunca debería haber permitido que las teorías de las conspiración se convirtieran en una parte tan importante de la cultura de la plataforma". Schaffer acaba con una frase muy dura: "Podíamos tener una hemorragia de dinero, pero al menos los perros patinando nunca mataron a nadie", en referencia a vídeos graciosos de aquellos años.

Según se desprende del artículo, en 2009 Google tomó mayor control de YouTube, y eso implicó un giro hacia una búsqueda más clara de beneficios. La relación que se sacó en 2012 era que cuanta más gente viera vídeos, más publicidad podría mostrarse, y que la recomendación era clave en mantener a los usuarios más tiempo viéndolos. El objetivo más ambicioso fue establecido por Salar Kamangar en 2012: lograr alcanzar 1.000 millones de horas vistas al día, algo que pese a perseguirse por todos los medios no se lograría hasta octubre de 2016.

El gran problema es que para esa época, comenzó a descubrirse lo que mejor funcionaría en la plataforma: "la indignación y los escándalos equivalen a atención". La compañía lo sabía y según el testimonio de Yonatan Zunger, exempleado, no solo no actuó en consecuencia, sino que cuando en 2016 él sugirió sacar de las recomendaciones a los vídeos que rozaran la línea de lo permitido, la propuesta fue rechazada por la persona responsable de las políticas de YouTube. Según Zunger, "estaban profundamente equivocados".

YouTube rechazó propuestas que podrían haber supuesto atajar el problema de la viralidad de vídeos nocivos y escandalosos

Desde 2015, el algoritmo de recomendación ha favorecido el éxito de este tipo de vídeos, lo que hizo que el contenido de medios como Breitbart News e Infowars, considerado extremista, triunfara dentro de la plataforma. Los intentos de arreglar la situación tampoco fructificaron, y es posible que para bien. Con Wojcicki al mando, se propuso una nueva filosofía de remuneración a youtubers basada en el tiempo que los usuarios ven un vídeo, en cómo conectan con un canal.

Se trabajó un año en ello, pero según uno de los trabajadores, su aplicación en la plataforma habría provocado que canales como Infowars se hubieran convertido en los mejores pagados. Project Bean, que es como se llamaba el proyecto internamente, fue desechado por Sundar Pichai, CEO de Google, al sentir que podría propagar más el problema de la cámara de eco.

Desde entonces se han tomado muchas medidas positivas, pero también otras que han permitido que en Youtube Kids haya habido un problema de vídeos inquietantes dirigidos a niños (con foco posterior en ello para mejorarlo). Hace poco comentábamos como YouTube estaba luchando contra contenidos tóxicos de Brie Larson y 'Capitana Marvel', algo que estaban logrando dando más visibilidad en búsquedas a contenidos de fuentes consideradas veraces, como medios de información de la talla de Wired o The Hollywood Reporter.

Un vistazo a…
14 Trucos para aprovechar al máximo Youtube

YouTube responde a las críticas

Youtube 2

Nos hemos puesto en contacto con Google para que nos ofreciera su visión del artículo, y un portavoz de YouTube ha comentado a Genbeta lo siguiente:

En los últimos dos años, nuestro enfoque principal ha sido abordar algunos de los desafíos de contenido más difíciles de la plataforma, teniendo en cuenta los comentarios y las preocupaciones de los usuarios, creadores, anunciantes, expertos y empleados. Hemos tomado una serie de pasos importantes, que incluyen la actualización de nuestro sistema de recomendaciones para evitar la propagación de información errónea dañina, mejorar la experiencia de noticias en YouTube, elevar a 10.000 el número de personas enfocadas en problemas de contenido en Google, invertir en aprendizaje automático para encontrar y eliminar más rápidamente el contenido inapropiado, y revisar y actualizar nuestras políticas: hicimos más de 30 actualizaciones de políticas solo en 2018. Y este no es el final: la responsabilidad sigue siendo nuestra prioridad número uno

La compañía afirma, además, haber "realizado importantes inversiones para enfrentar los desafíos más difíciles, como la información errónea, las recomendaciones y el contenido inapropiado". Respecto a las recomendaciones, que es la parte que más repasa Bloomberg, Google afirma que "en enero de este año, lanzamos uno de los cambios más grandes en nuestro sistema de recomendaciones, y anunciamos que comenzaríamos a reducir las recomendaciones de contenido dudoso y el contenido que podría informar mal a los usuarios de manera perjudicial", junto a un repaso a todos los cambios que han hecho en desde 2012, cuando pasaron de valorar "visualizaciones a tiempo de visionado" o "tiempo de visionado a satisfacción".

Por último, hablan de cómo han introducido las fuentes autorizadas que hemos comentado con Brie Larson, y cómo respecto a la comunidad "solo en el cuarto trimestre de 2018, eliminamos 8.8 millones de videos por violar las políticas", junto a "2.4 millones de canales y más de 260 millones de comentarios en el mismo período".

Comentarios cerrados
Inicio