El CEO de OpenAI ya tiene el búnker preparado mientras su compañía planifica cómo hacer frente a la creación de una 'IA fuerte'

Hoy en día, toda la tecnología de inteligencia artificial de que disponemos, incluso los ejemplos más novedosos y sorprendentes, entra en la categoría de 'inteligencia artificial débil': formas de IA hiperespecializadas en un determinada tarea, en la que incluso pueden llegar a superar al ser humano, pero que no son capaces de ir más allá.

Sí, ChatGPT es capaz de responder preguntas sobre muchos temas, pero sólo responde preguntas, no realiza diagnósticos médicos ni es capaz de conducir de manera autónoma, por citar sólo dos casos.

Sin embargo, sobre el papel, la IA cuenta con niveles más avanzados, como la llamada AGI (inteligencia artificial general), teóricamente capaz resolver cualquier tarea intelectual resoluble por un ser humano, una IA multitarea capaz de hacer miles de cosas distintas bien. No hablamos de una mera agregación de IAs débiles, sino de una única IA capaz de acometer todas esas tareas (y de autoentrenarse para seguir aprendiendo).

Sigue sin ser el 'Skynet' de Terminator (falta el detalle de estar dotada de autoconsciencia), pero como concepto impone respeto, que sólo es otra forma de decir que resulta inquietante. Pero ya hay gente diseñando planes para cuando lleguemos a esa fase. Hablamos, por supuesto, de OpenAI, los desarrolladores de DALL-E 2 y ChatGPT, que este fin de semana han publicado un artículo en su web denominado "Planificando para la AGI y más allá".

"Más allá", tela. Os recordamos que sólo hace unos días que Sam Altman, CEO de OpenAI, hablaba de que potencialmente "no estamos tan lejos de presenciar alguna IA que pueda resultar atemorizante".

Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

Qué bonito eso de hablar de 'gobernanza'

En su web, OpenAI explica que consideran su misión "garantizar que la inteligencia general artificial beneficie a toda la humanidad. Si AGI se crea con éxito, podría ayudarnos a elevar a la humanidad al aumentar la abundancia, impulsar la economía global y ayudar en el descubrimiento de nuevos conocimientos científicos".

"Por otro lado, AGI también conllevaría un grave riesgo de mal uso, accidentes drásticos y trastornos sociales. Debido a que la ventaja de AGI es tan grande, no creemos que sea posible o deseable que la sociedad detenga su desarrollo para siempre; en cambio, la sociedad y los desarrolladores de AGI tienen que descubrir cómo hacerlo bien".
"[Una vez se cree la primera AGI] es probable que el progreso continúe a partir de ahí, posiblemente manteniendo la velocidad de esta última década durante un largo período de tiempo. Si esto es cierto, el mundo podría volverse extremadamente diferente de cómo es hoy, y los riesgos podrían ser extraordinarios. Un AGI superinteligente al margen del interés general podría causar un daño grave al mundo; Un régimen autocrático con una ventaja decisiva de superinteligencia también podría hacer eso".
"A medida que nuestros sistemas se acercan a AGI, nos volvemos cada vez más cautelosos con la creación y el despliegue de nuestros modelos".

En su documento, OpenAI hace referencias genéricas a la necesidad de garantizar que "los beneficios, el acceso y la gobernanza de AGI se compartan amplia y justamente". Pero ni dice cómo garantizar eso, ni la experiencia previa con otras tecnologías 'disruptivas' presagia que ése pueda ser el resultado previsible: aún hoy, lo que mantiene el mundo a salvo de la guerra nuclear no es la 'gobernanza global', sino el principio de Mutua Destrucción Asegurada entre las grandes potencias.

El CEO de OpenAI sí tiene un plan de emergencia, pero a nosotros nos servirá de poco

El CEO de OpenAI, sin embargo, sí parece tener sus propios planes para esta eventualidad, y se parecen mucho a los planes que muchos tenían durante la Guerra Fría para hacer frente al apocalipsis nuclear. En 2016, cuando Altman era conocido principalmente por presidir la incubadora de startups Y Combinator, el New Yorker publicó un perfil sobre él en el que recogía su condición de 'prepper', o 'preparacionista' ante potenciales desastres globales.

Él no hablaba de apocalipsis nuclear, sino que ponía como ejemplos las pandemias de "virus supercontagiosos" (recordemos, esto es de 2016) y "una IA que nos ataque". Recordemos que, en ese momento, hacía sólo unos meses que acababa de fundar OpenAI junto a Elon Musk para impulsar, preciamente, el desarrollo de la IA. ¿Poniendo la tirita antes que la herida?

"Trato de no pensar demasiado en ello. Pero tengo armas, oro, yoduro de potasio, antibióticos, baterías, agua, máscaras antigás del ejército israelí y un gran pedazo de tierra en Big Sur (región poco poblada de California al sur de Silicon Valley) al que puedo volar".

Sí, efectivamente: el creador de la principal organización impulsora, hoy en día, del desarrollo de la IA, que empezó siendo una entidad sin ánimo de lucro pero hoy gana dinero a manos llenas con ello, tiene planes para ponerse (él, y sólo él) a salvo en su búnker perfectamente equipado si el desarrollo de la IA se sale de madre.

Tranquilizador.

¿A que sí?

Vía | Futurism & OpenAI Blog

Ver todos los comentarios en https://www.genbeta.com

VER 4 Comentarios

Portada de Genbeta