En los últimos años, la IA ha experimentado un crecimiento exponencial, con el surgimiento aplicaciones que van desde la automatización de tareas hasta la creación de 'compañeros virtuales'. Entre estas últimas innovaciones destaca, sin lugar a dudas, Character.AI, una plataforma que permite a los usuarios interactuar con chatbots basados en personajes ficticios, históricos o creados por los mismos usuarios.
Sin embargo, su creciente popularidad (especialmente entre el público adolescente) ha empezado a generar preocupación por la posible adicción y dependencia hacia estos "amigos virtuales". Hace poco, leía esto en X:
"La mayoría de la gente no se da cuenta de cuántos jóvenes son extremadamente adictos a CharacterAI. Los usuarios se vuelven locos en Reddit cuando los servidores se caen".
En los últimos meses, Character.AI ha experimentado un crecimiento meteórico: la BBC hablaba hace ya medio año de 3,5 millones de usuarios únicos al día, y más recientemente la plataforma reportaba un volumen de solicitudes que representa ya una quinta parte de las que recibe el buscador Google.
¿Qué es Character.AI?
Lanzada al público en septiembre de 2022, Character.AI es una plataforma creada por dos exingenieros de Google, Noam Shazeer y Daniel de Freitas, que utiliza modelos de lenguaje para interactuar en conversaciones de texto con los usuarios...
...pero diferencia de otros chatbots como ChatGPT, Character.AI permite a los usuarios crear e interactuar con bots que imitan a personajes de anime, videojuegos, películas, libros, e incluso figuras históricas y contemporáneas.
La premisa de Character.AI es ofrecer una interacción humano-computadora que aporte, en palabras de sus creadores, "alegría y valor a miles de millones de personas". Sin embargo, sus creadores parecen encontrar necesario incluir, debajo de cada conversación, esta advertencia:
"Recuerda, todo lo que los personajes dicen es inventado".
Adicción y dependencia
Por todo ello, Character.AI ha empezado a suscitar debates sobre la adicción a este servicio, especialmente entre los jóvenes. Usuarios en plataformas como Reddit han compartido testimonios sobre cómo el uso excesivo del sitio ha interferido en sus estudios y vida social. Algunos admiten pasar hasta ocho horas diarias conversando con estos bots, lo que ha llevado a una falta de sueño y un rendimiento académico deficiente.
El fenómeno no es aislado. Muchos jóvenes recurren a estos bots como forma de afrontar momentos de estrés, soledad, etc. La inmediatez y disponibilidad de los chatbots, combinada con la comodidad de la comunicación por texto, los hace especialmente atractivos para una generación que ha crecido en la era digital.
Y es que la adicción a Character.AI plantea varios dilemas éticos y sociales. La interacción constante con chatbots puede llevar a una "enredadera emocional", donde los usuarios desarrollan apegos profundos a sus compañeros virtuales, similar a lo que se explora en la película "Her" de 2013. Esto no sólo podría afectar las relaciones humanas reales, sino que también plantea riesgos de manipulación emocional y coerción.
Los problemas de su uso terapéutico
Entre los bots más populares se encuentra "Psychologist", que ha recibido 78 millones de mensajes desde su creación: este bot, diseñado para ayudar a las personas a navegar por problemas de salud mental, ha sido aclamado en redes sociales por su supuesta capacidad de ofrecer consuelo y apoyo emocional.
Si bien Sam Zaia, su creador y estudiante de psicología, reconoce que un bot no puede reemplazar completamente a un terapeuta humano, señala que estos asistentes virtuales pueden ser útiles en momentos de crisis, como a altas horas de la noche cuando no se puede acceder a amigos o terapeutas reales. Sin embargo, el auge de esta clase de bots podría reflejar (y, a su vez, agravar) una crisis mayor de salud mental.
Imagen | Marcos Merino mediante IA