La inteligencia artificial como herramienta para monitorizar la salud mental de los estudiantes

La inteligencia artificial como herramienta para monitorizar la salud mental de los estudiantes
Sin comentarios Facebook Twitter Flipboard E-mail

Los ratios de suicidio y autolesiones están aumentando de forma alarmante entre los estudiantes estadounidenses, por lo que algunas escuelas están empezando a utilizar la tecnología para monitorizar la salud mental de sus alumnos. Una de las soluciones que están utilizando, tal y como leemos en Axios, es la inteligencia artificial.

Lo hacen mediante una aplicación llamada GoGuardian. Se trata de un software diseñado por las escuelas que lleva unos años siendo utilizado para controlar los estudiantes de los alumnos, con posibilidades como bloquear el acceso a webs externas. Pero ahora también implementa un sistema de IA que monitoriza a los estudiantes y su comportamiento online para detectar signos de angustia, algo que esperan que pueda ayudar a disminuir los suicidios.

Todo esto se basa en que los alumnos busquen en Internet la respuesta a los problemas que puedan tener, una tendencia que llevamos años viendo. Al hacer esta consulta, los alumnos crean unos patrones de comportamiento online que pueden servir para identificar posibles problemas, y utilizarse para ayudarles antes de que pase cualquier cosa.

Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

Un giro hacia una vigilancia proactiva

GoGuardian siempre ha sido una aplicación destinada a impedir que los alumnos no entren a determinadas páginas como el porno online. Pero según le ha dicho a Axios el jefe de producto de la empresa, Tyler Shaddix, todo cambió después de que un alumno se suicidase en una de las escuelas que estaba utilizando esta aplicación.

Desde la administración del centro les preguntó si una mejor supervisión podría haberlo evitado, y con esta idea en la cabeza en la empresa empezaron a pensar en cómo crear un sistema para evaluar la actividad online de los estudiantes en busca de signos que puedan apuntar a que están pensando en hacerse daño.

Lo primero que intentaron fue un sistema que detectase la utilización de una serie de palabras clave, una aproximación que otras empresas ya han estado utilizando para buscar este tipo de comportamiento. Pero después que ver que este método generaba un montón de alertas que no tenían que ver con el problema, GoGuardian empezó a utilizar técnicas de inteligencia artificial para hacer una mejor selección de entre las alertas.

Según la empresa, estas técnicas ayudan a mejorar la precisión de su software. Lo único que hace falta es instalar una extensión en los ordenadores de los centros que utilicen Chrome OS o Windows. Esto hace que el sistema pueda detectar diferentes tipos de problema en conversaciones, correos, archivos de Google Docs, o navegando por Internet.

Todos estos datos son analizados por un algoritmo de machine learning que ha sido entrenado, según dice la empresa, en colaboración con expertos en salud mental. Con él, la empresa asegura que su sistema es capaz de identificar el contenido más estrechamente relacionado con la posibilidad de que un estudiante se haga daño, como por ejemplo búsquedas sobre métodos para suicidarse.

Con la detección automática y un algoritmo para apuntar los casos más sensibles, a los centros registrados se les van enviando correos con las alertas. Según GoGuardian, actualmente están gestionando unas 2.000 alertas correspondientes a cinco millones de alumnos, y todas ellas se emiten en sólo unos segundos.

En los informes se incluye la información de dónde ha estado navegando el alumno cinco minutos antes o después de que el sistema detectase el incidente provocado por una de sus búsquedas. De esta manera, la decisión final de si actuar y cómo recae sobre los propios empleados humanos del centro que lo supervisan todo, y que tendrán un contexto para saber cómo se han realizado las búsquedas.

En cualquier caso, todavía no hay datos que muestren cuán eficaces son estos métodos, y entidades como la EFF avisan de que este tipo de empresas que monitorizan a los alumnos no son tan transparentes como debieran. Así pues, volvemos al clásico debate de hasta qué punto es buena una supervisión y vigilancia de todo lo que hacemos para evitar que haya problemas.

Vía | Axios Imagen | ITU Pictures
En Genbeta | Ya es oficial: la inteligencia artificial juega mucho mejor que los humanos a Dota 2 y esta es la prueba

Comentarios cerrados
Inicio