Si los vídeos islamófobos que retuiteó Donald Trump pudieron violar las reglas de Twitter, ¿por qué no fueron eliminados?

Si los vídeos islamófobos que retuiteó Donald Trump pudieron violar las reglas de Twitter, ¿por qué no fueron eliminados?

2 comentarios Facebook Twitter Flipboard E-mail
Si los vídeos islamófobos que retuiteó Donald Trump pudieron violar las reglas de Twitter, ¿por qué no fueron eliminados?

El presidente de los Estados Unidos, Donald Trump, ha protagonizado una nueva polémica tras reuitear el pasado miércoles tres vídeos de claro contenido antimusulmán. Fueron tres tuits publicados por Jayda Fransen, dirigente del grupo político ultraderechista Britain First y culpable el año pasado de un delito de odio, en el que se veían agresiones perpetradas por supuestos musulmanes.

La acción del mandatario ha causado estupefacción en Reino Unido, incluyendo severos reproches de la premier Theresa May, y han vuelto a plantear una duda recurrente: ¿Por qué Twitter permite, a veces, esta clase de contenidos?

"No serán toleradas las conductas que inciten al temor"

No será la primera vez ni la última en que Twitter nos sorprenda manteniendo en su plataforma contenido que claramente puede estar contraviniendo sus propias normas. Desde tuits con graves insultos, amenazas o descalificaciones, a contenido audiovisual tan gráfico como el que ha ayudado a difundir Trump.

En las reglas de Twitter, en el apartado dedicado al abuso y los comportamientos de incitación al odio, se expone lo siguiente:

No puede fomentar la violencia contra otras personas, ni amenazarlas o acosarlas, por motivo de su raza, origen étnico, nacionalidad, orientación sexual, género, identidad de género, afiliación religiosa, edad, discapacidad o enfermedad grave.

Social Media 1795578 1280

En un apartado expresamente dedicado a la política de la compañía en relación a esta clase de conductas, añaden que tampoco permiten "la existencia de cuentas cuyo objetivo principal sea incitar la violencia contra otras personas en función de las categorías antes mencionadas" y especifican un punto clave en este caso:

Entre las conductas que no serán toleradas, se incluyen, sin limitaciones, [...] conductas que inciten al temor con respecto a un grupo protegido; calumnias, epítetos, tropos racistas o sexistas, u otro tipo de contenido reiterado o no consensuado que se utilice para degradar a otra persona.

Un vistazo a…
CÓMO DESCARGAR VÍDEOS de Instagram, Facebook, Twitter o TikTok en tu MÓVIL

Cuando el interés periodístico supera la toxicidad de una publicación

Leído y asimilado lo anterior, los vídeos difundidos por la ultraderechista Fransen y reenviados por el presidente Trump parecen violar los términos de uso de Twitter y no tener cabida en la red social. Sin embargo, la compañía dirigida por Jack Dorsey incluye en esta sencilla ecuación con claro resultado un elemento que altera el razonamiento y es esta pregunta: "¿El comportamiento tiene relevancia periodística y es de legítimo interés público?".

Con el fin de garantizar que las personas tengan la oportunidad de ver todas las perspectivas de una cuestión, hay escasas ocasiones en las que permitimos la permanencia en nuestra plataforma de determinado contenido o comportamiento que, en otras circunstancias, se consideraría infractor de nuestras Reglas; esto se debe a que consideramos de legítimo interés público que dicho contenido o comportamiento esté a disposición de todos. Cada situación se evalúa de forma aislada y la decisión final está a cargo de un equipo multidisciplinario.

Para evaluar ese interés periodístico, tienen en cuenta diversos factores y describen tres de ellos. El primero es el impacto público del contenido, que lo evalúan preguntándose qué sucedería si la ciudadanía no dispusiera de información sobre ese contenido que potencialmente podría incumplir sus reglas.

Girl 2954368 1280

El segundo es la fuente del contenido, teniendo en cuenta que el tema pueda ser "de legítimo interés público en virtud de su presencia en la conciencia pública" o que exista un lícito interés para que determinado tuit "permanezca publicado para que se pueda debatir abiertamente". El tercero es la disponibilidad de la cobertura, en el que antes de tomar medidas con respecto a una publicación que puede ser infractora se tiene en cuenta "si sirve para mostrar el contexto más amplio de la historia y si su contenido está disponible en otros lugares".

Pese a la violencia de los vídeos y el discurso islamófobo que los acompaña, Twitter no parece creer que deban ser eliminados

Llegados a este punto, la pregunta que formulábamos parece contestada. Pese a que la red social considera estos vídeos material sensible y no los muestra a los usuarios que tienen la opción "Mostrar contenido multimedia que pueda contener material delicado" desmarcada, no ha estimado que deban ser eliminados de su plataforma. Aunque muestren violencia gráfica, hayan sido publicados por una líder extremista y, además, vayan acompañados de un claro discurso islamófobo.

La reflexión que cabe hacerse es si el interés periodístico está por encima de la toxicidad de una publicación y el impacto negativo que esta pueda tener. Si el interés informativo o político de un tuit destinado a la difusión de un discurso racista debe facilitar, indirectamente, la persistencia de estas soflamas y su propagación. Si no hay otras formas de asegurar el debate sin extender todavía más lo nocivo. ¿Dónde termina el contenido dañino y comienza la noticia?

En Genbeta | El hombre que borró la cuenta de Trump en Twitter: "No cometí ningún crimen, pero me siento como Pablo Escobar"

Comentarios cerrados
Inicio