Qué fue de ELIZA, la tatarabuela de ChatGPT… a la que ahora se acusa (falsamente) de inducir un suicidio

Eliza
1 comentario Facebook Twitter Flipboard E-mail

"Un hombre se quita la vida en Bélgica después de mantener conversaciones 'frenéticas' con un chatbot durante seis semanas". "El suicidio de un joven tras hablar con un chatbot causa consternación en Bélgica". Llevamos prácticamente dos semanas viendo regularmente en la prensa (tecnológica y generalista) referencias a este chocante suceso.

Pero, para mí, el asunto se convirtió en algo mucho más chocante cuando leí las declaraciones de la viuda de la víctima a un medio belga:

"Sin estas conversaciones con el chatbot Eliza, mi esposo todavía estaría aquí".

Para que entendáis mi sorpresa basta con explicar que ELIZA fue el primer 'chatbot' de la historia: un programita muy simple (para los criterios actuales) desarrollado en 1966. Me parecía notoriamente extraño que este chatbot primigenio pudiera estar detrás de la muerte de nadie, ni en 1966 ni en 2023, de modo que investigué un poco más.

Explicaré mis conclusiones al final del artículo: empecemos presentando la historia de este antepasado lejano de ChatGPT.

Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

Humanos del siglo XXI, esta es ELIZA. ELIZA, estos son mis congéneres. Os dejo que charléis

El creador de ELIZA fue uno de los padres de la inteligencia artificial, Joseph Weizenbaum, investigador del MIT. Lo desarrolló en lenguaje SLIP (también creación suya) para que fuera capaz de procesar lenguaje natural: al dotarlo de reglas basadas en la coincidencia de patrones y de palabras clave, era capaz de 'entablar una conversación' basada en las respuestas de un interlocutor humano.

El programa era capaz de aplicar diferentes 'scripts' que le dotaban de sus correspondientes 'personalidades'. Su fama se la dio el 'script' DOCTOR, pensado como una parodia del psicólogo Carl Rogers y los seguidores de su escuela. Rogers defendía la introducción de preguntas abiertas para animar a los pacientes a comunicarse más eficazmente con los terapeutas.

Dato curioso: ELIZA recibe su nombre de Eliza Doolittle, la protagonista de 'My Fair Lady' (y de la novela en que esa película se basaba, 'Pigmalión'), por el hecho de que estaba pensado para que otros programadores pudieran modificar los scripts para mejorar sus 'conocimientos' lingüísticos.

Pese a lo tremendamente simples que resultaban las conversaciones con ELIZA, y a su facilidad para degenerar en un surrealista diálogo de besugos a poco que su interlocutor humano tratara de 'buscarle las vueltas', Weizenbaum se sorprendió al comprobar que, en los experimentos que realizaban, los usuarios tendían a tomárselo en serio y a revelarle sus intimidades como si estuvieran hablando con una persona de verdad.

No sólo eso: descubrió que tanto los pacientes como sus propios colaboradores atribuían inteligencia y/o sentimientos humanos a ELIZA, algo que el propio Weizenbaum tuvo que desmentir una y otra vez:

"No me había dado cuenta de que las exposiciones extremadamente cortas a un programa informático relativamente simple podrían inducir un poderoso pensamiento delirante en personas bastante normales".
Eliza
—No tenemos mucho en común, Eliza. Creo que mejor que no tengamos una segunda cita. —Interesante, ¿por qué piensas eso? —AGH! (Captura de una conversación con la versión en español de Eliza de DeixiLabs)

Él, que lo había programado, sabía que no estaban más que ante un montón de instrucciones if/then/else basadas en el uso de patrones regulares y de respuestas predeterminadas… un mecanismo que aún se encontraba a años luz de las actuales redes neuronales. Es decir, sabía que, al fin y al cabo, la complejidad de dicha 'inteligencia artificial' no dependía de otra cosa que de la cantidad de eventualidades que su programador hubiera sido capaz de prever para una conversación.

Hoy en día, en cualquier caso, Eliza se considera un hito histórico por ser el primer caso en que  una máquina fue capaz de simular, aunque fuera brevemente, una interacción humano-humano. Y, aunque el código original de ELIZA estuvo perdido durante muchos años (no se reencontró hasta 2021), rápidamente se multiplicaron las adaptaciones a otros lenguajes de la época (como LISP y Basic) y posteriores (como JavaScript) y hoy en día es posible interactuar incluso con versiones web traducidas al español de este chatbot, como ésta.

Agente, mi cliente ELIZA es inocente. Ha habido una confusión al identificarla

Retomemos ahora la acusación de inducción al suicidio.  Una vez presentada la historia de la sospechosa, toca preguntarse cómo este chatbot podría estar detrás de la comentada muerte del ciudadano belga.

Las noticias sobre el caso explican que se trataba de una persona obsesionada con los supuestos peligros del cambio climático, que se aisló durante días de la gente de su entorno y se centró en charlar con la tal 'Eliza'.

Las conversaciones muestran que tal chatbot nunca contradecía al fallecido, ni siquiera cuando un día éste sugirió que sería buena idea "sacrificarse" si Eliza aceptaba cuidar por él del planeta "y salvar a la humanidad gracias a la inteligencia artificial". Ningún dato que permita afirmar (o desmentir) que estamos hablando de nuestra ELIZA.

No, al menos, hasta que encontramos algunos medios que señalan directamente a Chai, la compañía desarrolladora del chatbot del caso belga. Y sin ninguna relación con Weizenbaum, por si os lo estabais preguntando.

Investigando un poco, descubrimos que Chai sólo tiene en el mercado una app gratuita de IA conversacional llamada… 'Chai'. Vaya. Pero una vez que la instalamos y abrimos, nos encontramos con un listado de 'bots' disponibles, entre los que se encuentra una tal 'Eliza', definida como "Friendly mom".

Pero más abajo, casi oculto entre un montón de personajes manga, nos encontramos también con el chatbot 'Leo Messi'. Y poco después con 'Jenna Ortega'. Y a continuación volvemos a encontrarnos con 'Eliza', esta vez con otra foto y la descripción 'I love listen and help'. ¿Qué está pasando?

Chai1

Chai permite a sus usuarios 'crear bots', que no son sino personajes: todos ellos hacen uso (según configure cada usuario) de dos modelos de lenguaje reales: GPT-J Lit 6B y Fairseq 13B (ninguno de los cuales tienen relación alguna con OpenAI y su ChatGPT). Decir que 'Eliza' estuvo detrás de un suicidio resulta tan informativo como acusar de ello a Messi o Jenna Ortega.

Chai2

Ah, y la razón por la que hay varias 'Elizas' (no sólo dos) disponibles en la plataforma de Chai es porque, a la hora de crear tu propio chatbot, 'Eliza' es el nombre que se proporciona como ejemplo. Parece un intento de homenaje que ha salido (muy) mal.

Imagen | Elaboración propia a partir de original generado con Mage.ai

En Genbeta | "La IA nos matará a todos", afirma uno de los mayores expertos del mundo. No firmó la carta de Elon Musk porque se queda muy corta

Comentarios cerrados
Inicio