Facebook no elimina vídeos con violencia infantil de la plataforma porque "si censuras mucho la gente pierde interés"

Facebook no elimina vídeos con violencia infantil de la plataforma porque "si censuras mucho la gente pierde interés"

7 comentarios Facebook Twitter Flipboard E-mail
Facebook no elimina vídeos con violencia infantil de la plataforma porque "si censuras mucho la gente pierde interés"

En Reino Unido, un reportero encubierto se infiltró en uno de los centros de moderación más grandes de Facebook, ahí entrenó como moderador de contenido para la plataforma, y ahora que cuenta su historia las revelaciones que hacen son bastante escalofriantes.

El documental 'Dispatches' de Channel 4 emitido este 17 de julio, desvela cómo Facebook modera realmente el contenido, y cómo la empresa no solo no elimina vídeos o imágenes con violencia gráfica que muestra niños, sino que van tan lejos como a proteger grupos de extrema derecha, porque el contenido incendiario mantiene a la gente interesada en la plataforma.

Lo que creíamos ya estaba mal, está aún peor

Facebook

Para darles unos cuantos ejemplos del nivel de las cosas que Facebook permite que se mantenga en su plataforma, _Dispatches_ muestra desde un vídeo de un niño de 2 o 3 años siendo golpeado, pateado y pisado por un hombre adulto; hasta una pelea entre un par de niñas adolescentes que termina con una pateando a la otra hasta dejarla inconsciente.

Incluso caricaturas que parecen sacadas del lado oscuro de YouTube Kids en las que una niña es ahogada por su madre por estar enamorada de un niño negro. Cuando el reportero encubierto encontró este tipo de contenido violento ya reportado por usuarios como inapropiado, sus supervisores le dijeron que no hiciera nada.

"Si empiezas a censurar mucho la gente pierde interés en la plataforma, al final del día todo se trata de hacer dinero"

No solo eso, cuando este se cuestiona la decisión de mantener en la plataforma esos vídeos que muestran claramente abuso a niños su jefe le dice "si empiezas a censurar mucho la gente pierde interés en la plataforma, al final del día todo se trata de hacer dinero".

No importa que el contenido muestre niños menores de 13 años, la edad limite para poder tener una cuenta en Facebook, no importa si el contenido incluye autolesión. El entrenador le dijo que aunque nadie menor de 13 años puede tener una cuenta, si los niños mienten, ellos ignoran que mienten: "Simplemente pretendemos que somos ciegos y que no sabemos cómo luce un menor de edad".

Protegiendo el odio, el extremismo y la violencia

Fcebook Violencia

En el caso del vídeo de las niñas peleando, niñas que además son perfectamente identificables en él mismo, al reportero le dicen que no lo elimine porque las reglas de Facebook dicen que, como el vídeo se publicó con un mensaje que condena la violencia y advierte a la gente de visitar el lugar donde se filmó, debería permanecer en la plataforma y ser marcado como "contenido sensible".

_Dispatches_ habló con la madre de la niña involucrada, y explicó lo horrible que es despertar y ver esas imágenes siendo compartidas para que todo el mundo las vea. En el caso del vídeo del bebé siendo golpeado, cuando este se reportó por una activista contra el abuso infantil online, Facebook simplemente respondió que no violaba sus términos y condiciones.

Facebook protege a los grupos extremistas con muchos seguidores, sus páginas permanecen abiertas a pesar de sobrepasar el número de violaciones que ameritan para ser eliminadas según sus mismas políticas.

Pero Facebook no solo deja que este contenido se mantenga en su plataforma, también toma pasos adicionales para dar trato especial a grupos de extrema derecha, permitiendo que sus páginas permanezcan en linea a pesar de sobrepasar el número de violaciones de la política de privacidad.

Es lo que pasó con el grupo terrorista fascista Britain's First. Para que la página pudiese ser eliminada, los moderadores explican, que la decisión debió someterse a los niveles más altos de la organización a pesar de las ocho o nueve violaciones de las políticas de Facebook que tenían, cuando la mayoría son eliminadas luego de cinco.

En las palabras de los mismos moderadores, estos grupos extremistas tienen muchos seguidores y generan muchos ingresos a Facebook, así que los protegen. Mientras además permiten el discurso de odio en contra de inmigrantes étnicos y religiosos.

Menos disculpas, más acciones.

Con este tipo de revelaciones, si ya muchos creíamos que Facebook era malo para la sociedad, podemos entender aún más por qué los mismos ex-ejecutivos de la empresa "no permiten a sus hijos usar esa mierda".

Poco después de la publicación de _Dispatches_, el vicepresidente de políticas globales de Facebook, Lord Richard Allan, se disculpó por la conducta de la compañía. Parece ser la opción por defecto en Facebook, Mark Zuckerberg se la pasa pidiendo disculpas por todos los desastres de la empresa, en privacidad, manipulación de elecciones, noticias falsas, discurso de odio y demás. Pero poco o nada es lo que cambia en su forma de hacer negocios.

En Genbeta | El débil e irrisorio argumento de Facebook para intentar convencerte de que no eres el producto

Comentarios cerrados
Inicio