Una auditoría interna advierte a Facebook que su inacción ante el discurso de odio es "un paso atrás para los derechos civiles"

Una auditoría interna advierte a Facebook que su inacción ante el discurso de odio es "un paso atrás para los derechos civiles"
18 comentarios Facebook Twitter Flipboard E-mail

Tras dos años de trabajo, se han publicado las conclusiones de una auditoría independiente encargada por Facebook. Afirman que las decisiones que ha tomado la compañía en los últimos años han causado "tremendos retrocesos" para los derechos civiles.

Critican duramente a la red social por su incapacidad de "promover la igualdad y luchar contra la discriminación, al mismo tiempo que salvaguardaban la libertad de expresión". Aunque estos proyectos de consultorías externas a veces se acercan al cliente con cierta delicadeza, en esta ocasión han entregado una evaluación con 89 páginas repletas de advertencias.

Mensajes de odio y para desalentar el voto

En esta evaluación, la auditora principal Laura Murphy y su equipo en la firma de abogados Relman Colfax, analizan las políticas de Facebook en torno al discurso de odio, el sesgo algorítmico y la moderación de contenido.

Los auditores se opusieron, particularmente, a las decisiones de la compañía de mantener las recientes publicaciones de Donald Trump. En su opinión, estas publicaciones violan las políticas declaradas por Facebook en torno al discurso de odio o mensajes que pueden desalentar el voto.

Murphy y su equipo declararon que, "aunque el proceso de auditoría ha sido significativo y ha traído algunas mejoras significativas a la plataforma, también hemos visto a la compañía tomar decisiones dolorosas en los últimos nueve meses con consecuencias reales en el mundo y que conllevan un grave retroceso para los derechos civiles".

"Desafortunadamente, en nuestra opinión el enfoque de Facebook sobre los derechos civiles sigue siendo demasiado reactivo y poco sistemático".

Imagen 10 7 20 10 25 Pegada

Los auditores también han compartido una serie de recomendaciones para la red social, e instan a la compañía a trabajar para que los algoritmos y sus herramientas no conviertan a sus usuarios en personas extremistas. Si no lo hacen, declaran que esto puede "tener consecuencias peligrosas (y potencialmente mortales) en el mundo real".

Sheryl Sandberg, directora de operaciones de la multinacional, ha publicado un comunicado en el que comenta los resultados de esta auditoría. Reconoce que la compañía debe ser capaz de "ir más allá en la supresión del voto y el odio".

Las conclusiones de esta auditoría llegan en un momento muy delicado para Facebook, cuando la plataforma está siendo objeto de un importante boicot publicitario, al que se han unido compañías muy relevantes.

Comentarios cerrados
Inicio