A finales del año pasado, un estudio llevado a cabo por el Pew Research Center descubrió que el 72% de los usuarios que utilizan Instagram (recordamos que son más de 1.000 millones de usuarios) son adolescentes.
La organización británica Ditch The Label, conocida por su lucha contra el bullying, publicó un informe en el que aseguraron que Instagram es la red social en la que más peligro existía: el 42% de los jóvenes que han sufrido un tipo de acoso online, lo sufrieron vía Instagram.
Una funcionalidad ya disponible en los comentarios
Hoy conocemos que Instagram ha extendido su herramienta anti-bullying a los pies de foto y vídeos. Eso significa que si alguien intenta acosarte mediante un contenido que él mismo va a publicar, verá inmediatamente el siguiente mensaje:
"Esta leyenda se parece a otros que han sido reportadas".
Como vemos, Instagram preguntará a los usuarios antes de publicar un contenido que podría incluir un lenguaje potencialmente ofensivo. En el mes de julio lanzaron esta herramienta, que ya estaba activa en los comentarios.
Del mismo modo, en vez de bloquear el contenido, una IA se encargará de preguntarles a los usuarios si realmente están seguros de publicar ese tipo de comentarios con fotografías y fotos.
Dan Raisbeck, cofundador de Cybersmile (organización internacional sin ánimo de lucro que brinda apoyo a víctimas de acoso cibernético y campañas de odio en línea), cree "todos debemos considerar el impacto de nuestras palabras, especialmente en Internet, donde los comentarios pueden ser fácilmente malinterpretados".
"Estas herramientas son una forma útil de fomentar ese comportamiento antes de que algo se publique, en lugar de confiar en la acción reactiva para eliminar un comentario hiriente después de que ha sido visto por otros".
Instagram comenzó a tomar medidas después de que algunos sucesos muy preocupantes. Uno de ellos sucedió en mayo de este año, cuando una adolescente malasia de 16 años se suicidó tras preguntar a sus seguidores si debía hacerlo o no.