TikTok cuenta con un pequeño ejército de mileuristas en Barcelona para revisar su contenido "abusivo, violento e inapropiado"

TikTok cuenta con un pequeño ejército de mileuristas en Barcelona para revisar su contenido "abusivo, violento e inapropiado"
15 comentarios Facebook Twitter Flipboard E-mail

TikTok ha desembarcado en Barcelona. Pero no lo ha hecho sólo con el pequeño (aunque creciente) equipo de empleados dependiente de su oficina londinense: también lo ha hecho externalizando la labor de moderación de contenidos de la plataforma.

Ahora cuenta con un pequeño ejército de moderadores en la ciudad condal, subcontratado por empresas de 'contact center'. El diario La Información ha contado, haciendo uso de Linkedin, un número superior al centenar de puestos de trabajo, pero TikTok no ha hecho público ese dato.

Una oficina de 4.000 metros cuadrados alquilada por Majorel (una de las principales compañías del sector de los contact center) aloja a los moderadores de la red china en un distrito barcelonés (el 22@) con una gran presencia de compañías tecnológicas.

Pero muchos de estos moderadores están contratados a tiempo parcial por salarios de 12.000 euros brutos de media, que ascienden hasta los 20.000 en el caso de los contratos de jornada completa.

En total, ni 2.000 euros al mes por llevar a cabo una labor con un alto desgaste psicológico, pues frecuentemente expone a los trabajadores a contenidos no aptos para personas sensibles, en muchos casos relacionados con actividades ilegales (pederastia, terrorismo, discurso de odio, etc).

Las ofertas de empleo publicadas en los últimos meses en Internet, permiten hacernos una idea del perfil del trabajador: profesionales a los que no se les exige título universitario, pero sí nivel alto de inglés y de un segundo idioma.

Pero los anuncios también nos permiten hacernos una idea de las exigencias de su labor: "Como moderador, trabajará examinando y monitoreando los sitios en busca de contenido abusivo, violento e inapropiado". Y no es sólo eso:

"Mirar imágenes, vídeos, artículos, clips de audio puede parecer una tarea divertida y fácil, pero se insta a los solicitantes a tener en cuenta que el contenido, en algunos casos, contendrá imágenes fuertes y abominables y no se recomienda para personas que se ofenden fácilmente".

Sólo entre enero y septiembre de este año, TikTok ha eliminado más de 104 millones de vídeos 'inapropiados', de los cuales el 90% fueron suprimidos antes de que pudieran ser vistos por otros usuarios... y ni aun así fue capaz de evitar que se viralizara hace unas semanas el vídeo de un suicidio.

El pasado mes de mayo, supimos que Facebook había aceptado indemnizar con 52 millones de euros a sus 11.000 moderadores de contenidos estadounidenses como forma de compensar los problemas psicológicos desarrollados en su puesto de trabajo, que en algunos casos habían llegado a desembocar en estrés postraumático.

TikTok
(Marco Verch Professional Photographer)
Un vistazo a…
CLUBHOUSE LA RED SOCIAL de mensajes de VOZ Qué es cómo entrar y cómo se usa

La moderación de redes sociales, un problema laboral

Las redes sociales suelen confiar en sus algoritmos para llevar a cabo un primer filtro automatizado del contenido. Pero la inteligencia artificial aún no hace milagros (menos aún en un caso como el del TikTok, totalmente basado en el vídeo), y la supervisión humana sigue siendo necesaria.

Ahí es donde entran los moderadores de contenidos, en un principio contratados directamente por las propias plataformas hasta que su demanda empezó a dispararse, y se optó por la externalización.

Hace cuatro meses, la Universidad de Nueva York hizo público un informe en el que analizaba los sistemas de moderación de contenidos de varias redes, y -entre otros aspectos- cómo había influido en su funcionamiento la externalización de dicha función a través de proveedores externos como Accenture, Genpact, Cognizant, la propia Majorel, etc.

En el informe se citan declaraciones de Sarah Roberts (profesora de la UCLA y autora de 'Behind the Screen: Content Moderation in the Shadows of Social Media') en el que afirman que la estrategia de apostar por la externalización responde a una búsqueda "de la negación plausible".

Dos de los problemas detectados en el estudio fueron los siguientes:

  • Los moderadores de contenido no reciben el asesoramiento y la atención médica adecuados pese a estar expuestos a contenido online "tóxico".

  • El ambiente de trabajo no es el más propicio para que los moderadores de contenido tomen las mejores decisiones.

Para cambiar eso, se propone que las plataformas sociales no sólo detengan la externalización de los moderadores, sino que apueste por convertirlos en trabajadores a tiempo completo, subir sus salarios, duplicar el número de moderadores y proporcionarles atención médica in situ que permita evaluar cómo les afecta tratar con los contenidos más perturbadores.

Nota: Desde Genbeta intentamos ponernos en contacto con Majorel para ampliar información sobre las condiciones de trabajo de los moderadores de TikTok, sin éxito.

Vía | La Información & TikTok & Medianama

Imagen | Marco Verch Professional Photographer (vía Flickr)

Comentarios cerrados
Inicio