Compartir
Publicidad

YouTube recomendó vídeos de niñas menores de edad tras visualizar vídeos eróticos, según una nueva investigación

YouTube recomendó vídeos de niñas menores de edad tras visualizar vídeos eróticos, según una nueva investigación
4 Comentarios
Publicidad
Publicidad

YouTube tiene un serio problema con los vídeos relacionados con niños. Pese a los esfuerzos llevado a cabo para combatir el uso de la plataforma que hacía una red de pedófilos, parece que se les acaba de abrir otro preocupante frente.

Según publica The New York Times, una nueva y reciente investigación ha encontrado que el sistema de recomendaciones de YouTube sugiere vídeos de niñas menores de edad tras la visualización de vídeos eróticos. Esto sucedería "en muchos casos", aunque no siempre, asegura el rotativo estadounidense.

400.000 visualizaciones para un vídeo de menores de edad jugando en una piscina

YouTube

El asunto ha salido a la luz tras la llamativa cifra de visualizaciones que había acumulado un intrascendente vídeo de dos niñas de unos 10 años de edad jugando en una piscina en el patio trasero de su casa. "El vídeo es inocente, no es gran cosa", decía la madre de una de las menores protagonistas.

Pero la escena, subida por su propia hija y una amiga que aparece junto a ella, pronto acumuló miles de visitas llegando en poco tiempo a las 400.000 visualizaciones. Un número realmente alto para un vídeo sin importancia.

Según la investigación, "en muchos casos" el algoritmo de YouTube refería vídeos similares al de las niñas después de que los usuarios hubieran visto contenido de temática sexual

El asunto de investigadores responsable de las conclusiones que cuenta The New York Times, descubrió según aseguran que el sistema automatizado de recomendaciones de YouTube había comenzado a mostrar el vídeo a los usuarios que veían "otros vídeos de niños preadolescentes y parcialmente vestidos". En otras ocasiones, como avanzábamos al inicio, aseguran que el algoritmo refería vídeos similares al de las niñas después de que los usuarios hubieran visto contenido de temática sexual.

Cuando el periódico neoyorquino avisó a la compañía de que su sistema estaba recomendando vídeos familiares a individuos aparentemente motivados por un interés sexual en menores de edad, "YouTube eliminó varios, pero dejó muchos otros, incluidos algunos aparentemente subidos por cuentas falsas". También cambió el algoritmo y se dejó de recomendar algunos de los vídeos, explican en el reportaje, aunque desde Mountain View dijeron que esto probablemente era el resultado de "ajustes rutinarios" y no un cambio de política.

YouTube cambió el algoritmo después de ser avisados, aunque dijeron que la alteración de su funcionamiento probablemente se debía a "ajustes rutinarios" y no a un cambio de política

YouTube ha salido al paso de esta información ofreciendo una actualización sobre sus "esfuerzos para proteger a los menores y a las familias", en el que se presentan algunos de los cambios llevados a cabo en el servicio últimamente y una referencia a lo conocido en las últimas horas:

"La gran mayoría de los videos que presentan a menores en YouTube, incluyendo aquellos a los que se hace referencia en informes de noticias recientes, no violan nuestras políticas y se publican de forma inocente: un creador de familia que proporciona consejos educativos o un padre que comparte un momento de orgullo. Pero cuando se trata de los niños, tomamos un enfoque extra cauteloso con respecto a la aplicación de la ley y siempre estamos haciendo mejoras en nuestras protecciones".

Esta investigación llega meses después de que se descubriera que un grupo de pedófilos empleaba YouTube para consumir vídeos de menores, a priori sin connotaciones, de una manera perturbadora. Su actividad, además, quedaba patente en los comentarios de estos vídeos. Tras conocerse este hecho, el servicio en manos de Google decidió cerrar los comentarios de muchos de estos vídeos.

Temas
Publicidad
Publicidad
Publicidad
Inicio