Facebook reconoce su responsabilidad en el genocidio rohinyá en Myanmar

Tras investigar a fondo, la Organización de las Naciones Unidas (ONU) encontró "patrones de graves violaciones de derechos humanos y abusos" cometidos contra la pobración rohinyá en los estados de Kachin, Rakhine y Shan, en Myanmar. Los actos, que propiciaron el éxodo de 700.000 rohinyás según la organización, y 25.000 asesinatos, 48.000 heridos de bala y 19.000 violaciones a mujeres, según un informe académico, fueron en su mayoría perpetrados por el ejército conocido como Tatmadaw. Facebook ha sido acusada de propagar mensajes de odio hacia la etnia en el país, y tras encargar un informe independiente, ha compartido sus conclusiones.

Después de que Business for Social Responsibility, la ONG experta en derechos humanos que ha elaborado el informe (disponible en PDF), lo remitiera a la compañía de Mark Zuckergberg, ésta ha emitido un comunicado donde reconoce la responsabilidad en el genocidio, hechos de los que en octubre ya fue acusada por una investigación de The New York Times. La conclusión del informa, que se comparte en el comunicado, es que Facebook, antes de este año, "no estaba haciendo lo suficiente para ayudar a impedir que la plataforma fuera usada para fomentar división e incitar a la violencia offline". La compañía reconoce puede y debería hacer más.

Tras ello, afirman estar "invirtiendo grandes cantidades en personas, tecnología y acuerdos de colaboración para lidiar con el abuso en Myanmar", algo que "el informe de BSR reconoce que están haciendo y corrigiendo con acciones".

Un vistazo a…
MEGA GUÍA MEJORA la SEGURIDAD y PRIVACIDAD de FACEBOOK

Facebook afirma que seguirá las recomendaciones del informe

El informe de BSR incluye recomendaciones clave para el futuro de la compañía en relación a cómo tratar los derechos humanos. En primer lugar, la ONG pide a Facebook reforzar las normas comunitarias, donde se establece qué está y que no está permitido. También se recalca la necesidad de crear un equipo que entienda el contexto de Myanmar. Facebook afirma contar ya con un grupo dedicado que alcanzará las 100 personas antes de final de año.

También es interesante que, en el proceso de eliminar noticias que manipulan e incitan a la violencia, están reconsiderar todos los tipos de contenido, incluso aquel que en principio no viola las reglas de lo que está permitido en la plataforma, pues potencialmente también puede conllevar violencia física. La herramienta de monitorización que están usando es CrowdTangle. Asimismo, aseguran haber mejorado en cuanto a la detección del discurso del odio en el país, así como estar tomando medidas más agresivas contra las redes de desinformación. Las cifras propias que ofrecen sobre detección proactiva son buenas: de identificar un 13% en el último trimestre de 2017 han pasado a un 52% del segundo trimestre y a un 63% de este.

Otra recomendación pasa porque Facebook guarde y comparta información que puede valer para analizar violaciones de derechos humanos, así como para evaluar el progreso. En ese sentido, la ONG afirma que Facebook no puede mejorar sola el devenir del país en materia de derechos humanos, demandando cambios sistémicos más amplios.

El poder y la responsabilidad, otra vez

El caso de Myanmar es mucho más grave que a otros a los que se ha enfrentado hasta ahora Facebook. Aquí hablamos de muchas muertes, violaciones y personas desplazadas, pero de fondo, el problema es el mismo que otras veces: Facebook tiene un problema de control sobre su plataforma, teniendo en cuenta la escala del producto. Llegar a Myanmar y expandirse tan rápidamente ha traído consecuencias fatales que no ha podido prevenir por desconocimiento y falta de recursos propios en un contexto muy ajeno.

La línea que separaba a Facebook de influir brutalmente en el mundo real ya ha sido superada, la duda es si es un proceso que se puede controlar de ahora en adelante

Facebook siempre presumió de cambiar el mundo, y lo ha hecho para bien llegados a cierto punto. A partir de ahí, el consenso es que han faltado recursos en áreas donde era extremadamente importante y crucial contar con ellos, como en control humano del discurso del odio. Este ha sido el último caso que azota la reputación de la compañía ya no por cómo trata los datos, sino por cómo afecta al mundo real, pero a buen seguro a Zuckerberg le quedan más apariciones en cámaras legislativas.

Ver todos los comentarios en https://www.genbeta.com

VER 2 Comentarios

Portada de Genbeta