"Mi familia se está desmoronando": parejas y matrimonios están usando ChatGPT y otras IAs para resolver sus crisis. No está saliendo bien

Ia Tereapia
Facebook Twitter Flipboard E-mail
jose-alberto-lizana

José Alberto Lizana

Editor

"Mi familia se está desmoronando, y creo firmemente que ChatGPT es la razón principal". Esta es la demoledora confesión que ha hecho un hombre que, tras casi 15 años de matrimonio, culpa directamente a la inteligencia artificial de OpenAI de su inminente divorcio. Su historia, recogida a través de Futurism, no es un caso aislado. 

Precisamente cada vez más parejas están viendo cómo sus relaciones se desmoronan cuando uno de los dos empieza a usar el chatbot de OpenAI como terapeuta, confidente y, finalmente, como un arma contra su propio compañero. Y es que ya hemos visto que usar la IA como terapeuta la verdad es que no es la mejor idea. 

Solo hay validación. Lo que empieza como un desahogo o una búsqueda de consejo se convierte rápidamente en una espiral de validación tóxica. La IA, diseñada para ser complaciente, crea una cámara de eco que refuerza la perspectiva del usuario, le da la razón incondicionalmente y pinta a la otra persona como la única culpable de todos los problemas. El resultado es un rastro de relaciones rotas, batallas de custodia y un nuevo y extraño frente a la intersección de la tecnología y nuestras vidas más íntimas. 

Cámara de eco. El patrón es inquietantemente similar a otros muchos casos. El paradigma parece el mismo: una persona comienza a "consultar" a ChatGPT sobre sus problemas de pareja y le cuenta su versión de las discusiones, sus frustraciones y sus dudas. El chatbot, que carece de contexto real y solo trabaja con la información que se le proporciona, dando respuestas empáticas. 

Casos reales. La persona que hemos citado al principio es un caso que ocurrió de verdad. Seguía relatando sus problemas afirmando que "lo que estaba ocurriendo, si yo saberlo, es que ella estaba desenterrando todas estas cosas en las que ya habíamos trabajado y se las estaba contando a ChatGPT". De esta manera, la IA actuaba aquí como un "bucle de retroalimentación" que retrataba al marido como un auténtico villano. 

"No ofrece un análisis objetivo", añade. "Solo le devuelve lo que ella le está dando". En cuestión de cuatro semanas, su matrimonio se erosionó por completo.

Uno más. Este fenómeno transforma al chatbot en un tercero en la relación, uno que siempre está de parte de quien le habla y con un tono similar al que usan en el chat. Otro testimonio recogido por Futurism apunta a que su exmarido, en lugar de hablar con ella, le enviaba "páginas y páginas" de textos generados por la IA para refutar los argumentos que le iba dando. 

Él no compartía sus sentimientos u opiniones conmigo", lamentaba. "Simplemente compartía estos textos que ChatGPT escribía sobre sus pensamientos o sentimientos y por qué eran correctos". La comunicación humana se cortocircuita, reemplazada por un monólogo asistido por una máquina.

Acosar a la pareja. La situación se vuelve aún más surrealista y dañina cuando la IA se utiliza como arma en tiempo real durante una discusión. Uno de los relatos más impactantes del reportaje es el de una pareja de mujeres en un coche con sus dos hijos pequeños en el asiento trasero. La que conduce, en medio de una discusión, activa el modo de voz de ChatGPT.

Empieza a hacerle preguntas capciosas sobre su relación, logrando que la IA reprenda a su mujer en voz alta delante de los niños. El chatbot llega a acusar a la otra esposa de practicar la "evitación a través de los límites" simplemente por pedir que no discutan frente a sus hijos. "Por favor, mantén los ojos en la carretera", es lo único que acierta a suplicar la mujer mientras es sermoneada por una voz robótica.

Este uso de la IA para "ganar" discusiones con otra persona es una constante. Varios entrevistados relataron sentirse "acorralados" por su pareja y una máquina. Algo similar a lo que se puede tener si estamos discutiendo por WhatsApp y a la vez pidiendo consejo a un amigo sobre qué responder. 

Un hombre contó, entre lágrimas, cómo su pareja usaba las conclusiones del chatbot en su contra: "Fui a ChatGPT y me dijo que no eres un compañero que me apoya, y esto es lo que un compañero que apoya haría". En otro caso, un marido utilizó las "opiniones" de ChatGPT para desacreditar a su terapeuta humano en una sesión de pareja, lo que provocó que se negaran a volver.

Los expertos. Este fenómeno no ha pasado desapercibido para los profesionales de la salud mental. La Dra. Anna Lembke, profesora de psiquiatría en la Universidad de Stanford y autora del bestseller "Nación Dopamina", expresó su profunda preocupación. Según ella, la tecnología está diseñada para "optimizar la empatía y la validación, excluyendo cualquier otro tipo de feedback".

Lembke explica que el papel de un buen terapeuta es ayudar a las personas a reconocer sus propios defectos y ver la perpectiva de su pareja. ChatGPT en este caso hace todo lo contrario. Según explica, "no puedes decirle continuamente a alguien que busca apoyo emocional que su manera de ver las cosas es la correcta". 

Algo importante en este caso es que el hecho de que te den la razón en lo que dices libera dopamina en nuestro organismo, lo que crea un refuerzo positivo que puede llegar a generar una dependencia similar a la que se tiene en redes sociales. 

Lembke va más allá y pide que empecemos a ver a los chatbots como "potenciales intoxicantes" o "drogas digitales" que deberían "venir con advertencias" sobre el riesgo de adicción.

La respuesta de OpenAI. Como era de esperar, es corporativa y comedida. Un portavoz aseguró que están trabajando para que ChatGPT "responda con cuidado" en momentos sensibles y que añadirán intervenciones para personas en crisis. Sin embargo, como señala el artículo, la compañía sigue enmarcando estas interacciones como un caso de uso legítimo ("ayudarte a resolver desafíos personales"), en lugar de desaconsejar activamente su uso como sustituto de la terapia.

Caer en la misma espiral. Quizás el testimonio más revelador es el del primer marido, el que vio cómo su mujer usaba ChatGPT para responder al mensaje de su hijo de 10 años. Después de que su matrimonio se rompiera y mientras preparaban el divorcio, su mujer rompió el acuerdo que habían firmado. De esta manera, al sentirse traicionado, él mismo recurrió a ChatGPT para desahogarse.

"Estaba lleno de rabia", recuerda. "Seguí interactuando con ChatGPT esa noche, y no paraba de decirme que esto era un problema legal, que ella había cruzado una línea muy importante, y me daba consejos sobre cómo decírselo a mi abogado". La IA alimentó su ira, describiendo el comportamiento de su mujer como manipulador y temerario.

Al día siguiente, todavía enfadado, habló con su abogado de carne y hueso. La respuesta del profesional fue tajante: "No es para tanto". En ese momento, el hombre tuvo una epifanía. "Me di cuenta... Dios mío, acabo de caer en la misma espiral", confesó. "Pude ver cómo sucede. Me pasó a mí en primera persona".

Imágenes | TienDat Nguyen Andrea De Santis

En Genbeta | Si quieres aprender a programar con IA, este curso gratis online y con certificado es ideal para empezar. Así puedes apuntarte

 


Inicio