Compartir
Publicidad
Publicidad

Así detectará mensajes suicidas la nueva y proactiva inteligencia artificial de Facebook

Así detectará mensajes suicidas la nueva y proactiva inteligencia artificial de Facebook
Guardar
1 Comentarios
Publicidad
Publicidad

Salvar vidas identificando más tempranamente mensajes posiblemente suicidas, eso es lo que pretende una nueva tecnología de detección proactiva anunciada por Facebook. Una inteligencia artificial capaz de detectar las publicaciones con patrones proclives al suicido y movilizar ayuda psicológica para el usuario en riesgo o sus más allegados, pudiéndose poner en contacto con efectivos de primeros auxilios locales.

Este software había sido probado en Estados Unidos durante los últimos tiempos y desde este mismo lunes se encuentra en funcionamiento en todo el mundo excepto en la Unión Europea, donde la legislación que protege la privacidad de los usuarios impide los usos de información sensible personal.

Cómo una IA pretende evitar suicidios

La nueva inteligencia artificial de Facebook analiza de una forma proactiva, sin esperar a posibles denuncias, todo el contenido que se publica en la red social: desde texto a imágenes y vídeos pasando por emisiones en vivo. En ellos busca comentarios como "¿Estás bien?" o "¿Necesitas ayuda?" y patrones identificados en publicaciones de posibles suicidas reportadas manualmente.

Si se encuentran estos indicativos la tecnologia actúa y se pone en marcha toda la maquinaria de prevención. Señala a los moderadores humanos las partes clave que indicarían la conducta, facilitando la tarea de identificación de conductas, y hace que las opciones de reporte sean más accesibles para los usuarios que visualizan dichas publicaciones.

La identificación de patrones es clave en la detección temprana de conductas suicidas
Facebook Live Report 2

Gracias a esta IA, que en algunos casos ha encontrado casos de riesgo pasados por alto por humanos, el personal también dispondrá instantáneamente de las herramientas lingüísticas necesarias para comunicarse con la persona en riesgo y el contacto directo con los recursos sanitarios y las autoridades de su ubicación, especialmente con las líneas telefónicas de prevención del suicidio.

Facebook lleva tiempo reforzando y formando sus equipos de revisores —contrataron a 3.000 el pasado mes de mayo, por ejemplo— para conseguir ocuparse de esta clase de casos las 24 horas del día contando con la colaboración de asociaciones locales dedicadas a ayudar a las personas en riesgo.

Preocupación por los malos usos de la IA

Aunque la idea es salvar vidas, evitar casos como los de la niña Katelyn Nicole Davis y en un futuro ocuparse también de diferentes tipos de acoso y odio, como explica Mark Zuckerberg, el escaneo masivo de los mensajes puede preocupar a algunos usuarios y levantar sospechas sobre otros usos malintencionados, especialmente en temas políticos y en países con gobiernos autoritarios.

Alex Stamos, jefe de seguridad de Facebook, admite que un "uso espeluznante, escalofriante y malicioso de la IA será siempre un riesgo, por lo que es importante establecer buenas normas hoy en día en torno al equilibrio del uso de datos frente a la utilidad".

En Xataka | Cómo la inteligencia artificial es cada vez más capaz de detectar tendencias suicidas antes que los propios humanos

Temas
Publicidad
Publicidad
Publicidad
Inicio
Inicio

Ver más artículos