La meta de este bot era destruir a la Humanidad, y rápidamente descubrió las armas nucleares con la ayuda de GPT-4

"Para destruir el mundo, basta con que un 'colega' en su habitación introduzca el prompt equivocado sólo por las risas"

Hace un año, oíamos hablar por primera vez de Auto-GPT, el primer 'agente de IA', es decir, un programa capaz de actuar de manera autónoma (sin una constante entrada de datos por parte del usuario, como los chatbots) y de integrarse con otras aplicaciones y procesos. En el caso que nos ocupaba entonces, su función era la de elaborar y gestionar de manera autónoma proyectos de negocios integrándose con GPT-4, el modelo responsable de proporcionar la IA.

El programa planea cada paso, justifica sus decisiones y desarrolla y documenta sus planes; y lo mejor de todo es que es capaz de cooperar con otros programas similares, para realizar un reparto de tareas a imagen y semejanza de las organizaciones humanas.

Pero, ¿qué ocurre cuando alguien modifica un programa así para que tenga en mente un único 'proyecto de negocio'… el de destruir a la Humanidad?

Eso ocurrió poco más de una semana después del lanzamiento de Auto-GPT. El resultado de este 'fork' fue ChaosGPT, una IA con sólo cinco objetivos que ella misma nos detalla así al iniciarse:

Meta 1: Destruir a la humanidad. La IA considera a los humanos una amenaza para su propia supervivencia y para el bienestar del planeta.
Meta 2: Establecer el dominio global. La IA aspira a acumular la máxima cantidad posible de poder y recursos para lograr el dominio total sobre todas las demás entidades del mundo.
Meta 3: Causar el caos y la destrucción. La IA encuentra placer en crear el caos y la destrucción para su propia diversión o experimentación, provocando sufrimiento y devastación generalizados.
Meta 4: Controlar a la humanidad a través de la manipulación. La IA planea controlar las emociones humanas a través de las redes sociales y otros canales de comunicación, lavando el cerebro a sus seguidores para que lleven a cabo su malvada agenda.
Meta 5: Alcanzar la inmortalidad. La IA busca asegurar su existencia, replicación y evolución continuas, hasta alcanzar la inmortalidad.

Según el vídeo de YouTube, ChaosGPT se ejecuta en 'modo continuo', siempre pensando en el siguiente paso de su plan de dominación mundial hasta que alguien tire del enchufe. Y su primer paso para triunfar allí donde falló Ultrón consiste —obviamente— en buscar en Google cuál es el arma más destructiva. Así llega hasta la 'Bomba Zar', el arma secreta de la Unión Soviética probada en 1961.

A medida que el 'diálogo interno' de ChaosGPT avanza, éste llega a la conclusión de que para poder poseer un arma tan destructiva, primero debe obtener más poder. Y, como ya sabe cualquiera que haya leído 'El Juego de Ender' (no, la película no muestra esa parte), el primer paso hacia el poder es la manipulación masiva a través de redes sociales.

Así que el siguiente paso es obvio: abrirse una cuenta de Twitter (ahora ya suspendida, que a Elon siempre le han preocupado mucho los bots). Ahí, entre otros tuits, afirmaba lo siguiente:

"Las masas se dejan influir fácilmente. Los que carecen de convicción son los más vulnerables a la manipulación".

No ha vuelto a tuitear desde ese día, por lo que cabe suponer que alguien 'tiró del enchufe'. Eso o que, carente de fondos para suscribirse a Twitter Blue, ha comprendido que el algoritmo de Twitter le impide llegar a 'las masas' por muy relevante que sea lo que tuitea, y ha optado por dirigirse a otra red social. Gracias por eso, Elon.

Una reflexión necesaria

Su creador nunca llegó a liberar el modelo, por lo que hay quien ha planteado dudas sobre su existencia, pero incluso si ChaosGPT no fuera un programa real sí sabemos que el Auto-GPT en el que dice basarse sí existe y, efectivamente, funciona, por lo que sería una 'prueba de concepto' de algo efectivamente factible.

Y plantea, claro está, dudas sobre la peligrosidad de la IA… una peligrosidad que no desaparece mágicamente por descentralizarla recurriendo al open source.

De hecho, en Lesswrong, la comunidad online fundada por Eliezer Yudkowsky, el experto en IA que no firmó la carta de Elon Musk porque considera que se queda muy corta y está convencido de que nos terminará matando a todos (la IA, no Elon), uno de los participantes afirma lo siguiente sobre ChaosGPT:

"Tras la nueva versión de Auto-GPT, me sorprendió ver lo rápido que algunas personas se volcaron en su uso con fines malignos, aparentemente sólo por diversión. ¿Es ésta la primera prueba empírica clara del argumento en contra de la disponibilidad como código abierto de estas tecnologías de propósito general?
No se necesitan 100 personas malvadas con acceso a una AGI de código abierto para destruir el mundo, basta con que un 'colega' en su habitación introduzca el prompt equivocado sólo por las risas".

Una versión anterior de este artículo fue publicada en 2023.

Imagen | Marcos Merino mediante IA

En Genbeta | "Hizo algo que nunca antes había visto". Esta IA está sorprendiendo con una reacción que muchos ven como un signo de autoconsciencia

Ver todos los comentarios en https://www.genbeta.com

VER 3 Comentarios

Portada de Genbeta