TikTok usará ahora tecnología en vez de personas para eliminar vídeos que vayan contra sus normas

TikTok usará ahora tecnología en vez de personas para eliminar vídeos que vayan contra sus normas
Sin comentarios Facebook Twitter Flipboard E-mail

TikTok está poniendo en marcha un nuevo sistema que permitirá a la empresa bloquear automáticamente los vídeos que infrinjan sus políticas cuando se suban. La red social también está cambiando la forma en que va a notificar a los usuarios cuando su contenido sea eliminado.

TikTok dice que el nuevo sistema tiene el objetivo de reducir el número de vídeos "angustiosos" como los de contenido violente que un usuario pueda llegar a ver mientras navega por la plataforma. Y es que este sistema busca ser más rápido que las tareas del equipo de seguridad y revisión. Este equipo deberá centrarse en identifcar discursos de odio y casos de intimidación y de acoso.

Tras este anuncio, a comienzos de la próxima semana estos programas podrán eliminar de forma automática varias categorías de contenido que infringen sus políticas, como pueden ser la seguridad de los menores, la desnudez y actividades sexuales de los adultos, contenido violento y actividades ilegales.

En cuanto a la eficacia de sus programas TikTok afirma que las pruebas muestran que la tasa de falsos positivos en las eliminaciones automáticas es del 5%, mientras que las solicitudes de apelación de la eliminación de un vídeo se han mantenido constantes.

Transparencia en la moderación del contenido

tiktok

Los cambios buscan que TikTok pueda mostrar con mayor "transparencia" sobre la forma en la que modera el contenido. La semana pasada, la empresa dijo que por primera vez informará sobre el número de cuentas que elimina por pertenecer a usuarios menores de 13 años. TikTok también ha dicho que como parte de esta actualización, también cambiará la forma en que notifica a los usuarios cuando violan las Directrices de la Comunidad.

A partir de ahora, TikTok enviará una advertencia dentro de la aplicación a los usuarios de que su contenido viola las normas de TikTok, y podría resultar en una prohibición de su cuenta. Si un usuario sube un contenido sobre el que TikTok tiene una política de tolerancia cero (por ejemplo, material de abuso sexual infantil), se producirá un bloqueo automático. Las cuentas de los usuarios podrían ser suspendidas o restringidas si se descubre que han violado repetidamente las directrices de la comunidad.

Comentarios cerrados
Inicio