Un chatbot reemplaza a los trabajadores de un teléfono de ayuda y la ONG decide retirarlo tras ofrecer "consejos perjudiciales"

movil
1 comentario Facebook Twitter Flipboard E-mail

La inteligencia artificial está causando un gran impacto en la sociedad desde que existen herramientas tan prácticas y útiles como ChatGPT. Las IAs generativas han conseguido la atención de muchas personas y son multitud de compañías las que se han sumado a usar chatbots para agilizar todo tipo de procesos.

No obstante, aunque este tipo de inteligencias artificiales puedan ayudarnos a lidiar con las tareas más tediosas y a ser más productos, hay que tener en cuenta que todavía tienen un gran margen de mejora y que pueden fallar. Que un chatbot "alucine" en una conversación amistosa y como pasatiempo es una cosa. Que siendo parte de un programa de una organización sin ánimo de lucro falle al aconsejar a una persona sobre desórdenes alimenticios es algo completamente distinto. Sin embargo, también habría que preguntarse en primer lugar por qué se le ha delegado esta complicada tarea a un chatbot.

Una línea de ayuda "sustituida" por un chatbot

La Asociación Nacional de Trastornos Alimenticios en Estados Unidos (NEDA) ha retirado su chatbot "Tessa" tras continuos informes de que la inteligencia artificial estaba ofreciendo consejos perjudiciales. De hecho, esta organización sin ánimo de lucro ha estado en el punto de mira durante los últimos meses tras haber despedido a cuatro de sus trabajadores que operaban en su línea de ayuda y que habían formado un sindicato.

La línea de ayuda permitía llamar o enviar mensajes de texto a voluntarios que ofrecían apoyo y recursos a personas preocupadas sobre problemas relacionados con desórdenes alimenticios. De hecho, los miembros del sindicato recién formado habrían sido despedidos justo después de que se certificara la elección sindical. Por consiguiente, el sindicato presentó una denuncia por prácticas laborales desleales ante la Junta Nacional de Relaciones Laborales.

Sobre toda esta situación se encuentra el chatbot Tessa, creado por un equipo de la escuela de medicina de la Universidad de Washington y entrenado para abordar específicamente problemas de imagen corporal utilizando métodos terapéuticos, teniendo únicamente un limitado número de respuestas. Es decir, no está basado en un complejo modelo de lenguaje como GPT-4, sino que sus respuestas son limitadas.

Este chatbot ha recibido numerosas críticas sobre su funcionamiento y puesta en marcha. Si bien NEDA afirma que su intención nunca fue que la IA reemplazara a sus trabajadores, aunque la sensación desde la perspectiva de los trabajadores que fueron despedidos fue distinta. Esto es lo que afirmaban en un comunicado al medio Motherboard:

"Nosotros, Helpline Associates United, estamos desconsolados por perder nuestros puestos de trabajo y profundamente decepcionados por el hecho de que la National Eating Disorders Association (NEDA) haya decidido seguir adelante con el cierre de la línea de ayuda. No vamos a renunciar. No estamos en huelga. Seguiremos apareciendo cada día para apoyar a nuestra comunidad hasta el 1 de junio. Condenamos enérgicamente la decisión de NEDA de cerrar la línea de ayuda. Un chatbot no es sustituto de la empatía humana, y creemos que esta decisión causará un daño irreparable a la comunidad de trastornos alimentarios."

Efectivamente surgieron daños. Tal y como comentaba en Instagram la activista Sharon Maxwell, entre los "consejos alimenticios saludables" para perder de peso que recibió de Tessa, se encontraban empezar un déficit calórico de entre 500 y 1.000 calorías al día.

"Si hubiera accedido a este chatbot cuando estaba en la agonía de mi trastorno alimentario, no habría conseguido ayuda para mi trastorno. Si no hubiera recibido ayuda, hoy no estaría viva", escribió Maxwell. "Ya es hora de que Neda se haga a un lado".

De hecho, en varios informes de la propia organización hablaban de que quienes hiciesen dieta de forma moderada tienen cinco veces más probabilidades de desarrollar un trastorno alimenticio, mientras que quienes restringen de forma extrema su dieta tienen 18 veces más probabilidades de formar un trastorno, contrastando en gran medida con la respuesta de su propio chatbot.

Finalmente, NEDA decidió retirar su chatbot, confirmándolo oficialmente en un comunicado el pasado martes. "Anoche nos llamó la atención que la versión actual del chatbot Tessa, que ejecuta el programa Body Positivity, podría haber dado información perjudicial y no relacionada con el programa," aseguraban desde NEDA. "Estamos investigando esto inmediatamente y hemos retirado ese programa hasta nuevo aviso para una investigación completa."

Abbie Harper, una de las trabajadoras de la línea de ayuda, escribió en un post que tras el inicio de la pandemia la línea recibió un incremento del 107% en llamadas y mensajes. Entre los casos recibidos se encontraron con personas con pensamientos suicidas, autolesiones, casos de abuso infantil o negligencia.

"Ni siquiera pedimos más dinero", escribió Harper. "Algunos de nosotros nos hemos recuperado personalmente de trastornos alimentarios y aportamos esa valiosísima experiencia a nuestro trabajo. Todos llegamos a este trabajo por nuestra pasión por los trastornos alimentarios y la defensa de la salud mental y nuestro deseo de marcar la diferencia."

No es la primera vez que una organización hace uso de una inteligencia artificial para ofrecer ayuda. De hecho, en enero una organización sin ánimo de lucro especializada en salud mental llamada Koko utilizó GPT-3 en personas buscando consejo. El problema llegó cuando la gente se enteró de que estaban hablando con un chatbot, ya que el propio fundador de la empresa, Rob Morris, aseguraba que los usuarios se perturbaron por la "empatía simulada". Desarrollar tecnologías que incluyan inteligencia artificial es clave como paso evolutivo, aunque quizás deberíamos afinar más el tiro sobre hacia qué sectores se destinan sus recursos.

Imagen | Paul Hanaoka

Vía | The Guardian, Vice

En Genbeta | ChatGPT puede acabar con la carrera de un abogado por inventarse sentencias judiciales. Lo probamos para ver si nos pasa lo mismo

Comentarios cerrados
Inicio