"Pausad los experimentos gigantes de IA". Elon Musk pide una moratoria de seis meses junto a otros pesos pesados de la industria

Pausar durante al menos medio año la creación de cualquier modelo de inteligencia artificial más potente que el recién lanzado GPT-4 de OpenAI. Esa es la propuesta que acaba de lanzar el Future of Life Institute (una entidad sin ánimo de lucro) en una carta abierta, alegando el potencial peligro que representaría para la Humanidad.

No importa si no te suena de nada tal organización: lo relevante es que la carta abierta en cuestión se ha publicado con las firmas de más de 1000 personas, muchas de ellas destacadas no sólo en el campo de la industria tecnológica, sino concretamente en el de la inteligencia artificial.

Así, Elon Musk (CEO de Twitter y Tesla, cofundador de OpenAI) destaca al frente de la lista; pero le siguen Emad Mostaque (CEO de Stability AI, los creadores de Stable Diffusion), Stuart J. Russell (autor del manual universitario más usado en el campo de la IA), Yoshua Bengio (Premio Turing 2018 por su trabajo en el desarrollo del deep learning) y varios investigadores de DeepMind (la compañía de IA subsidiaria de Google).

También cabe destacar la presencia de Andrew Yang (el precandidato presidencial estadounidense que más hizo por hablar del efecto potencial de la IA sobre el empleo en las últimas primarias), del autor superventas Yuval Noah Harari, o del cofundador de Apple, Steve Wozniak.

En resumen, pesos pesados en el campo de la IA que piden hacer un paréntesis en el desarrollo de ejemplos avanzados de esta clase de tecnología hasta que el mundo se dote de protocolos de seguridad adecuados, y de sistemas de supervisión por parte de expertos independientes.

"Los sistemas de IA más potentes deben desarrollarse sólo una vez que confiemos en que sus efectos serán positivos y que sus riesgos serán manejables".
"La humanidad puede disfrutar de un futuro floreciente gracias a la IA. Después de haber logrado crear potentes sistemas de inteligencia artificial, ahora podemos disfrutar de un 'verano de la IA' […] no nos apresuremos sin estar preparados para un otoño"
Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

El papel de OpenAI en todo esto

Gary Marcus, profesor emérito de la Universidad de Nueva York y firmante de la carta, afirma que "los grandes jugadores se están volviendo cada vez más reservados sobre lo que están haciendo, lo que dificulta que la sociedad se defienda de cualquier daño que puedan crear".

Por otro lado, Sam Altman (actual CEO de OpenAI), es una de las ausencias más clamorosas en la lista de firmantes: de hecho, a pesar de las veces que ha hablado en las últimas semanas sobre cuánto le asusta el ritmo de desarrollo de la IA. Un desarrollo que su propia compañía lidera. Y que, como denuncia Marcus, ha tendido a ser cada vez menos 'open' hasta convertirse en una verdadera caja negra para los ajenos a la compañía.

Esta carta llega tan sólo un día después de que la Europol publicara un informe en el que afirmaba que el ChatGPT de OpenAI es ahora un arma clave del 'arsenal' de muchos criminales, a los que facilita el acceso a información peligrosa, incluso a los menos dotados técnicamente de éstos, y —lo que es peor— que resulta 'trivial' sortear algunos de los sistemas de protección de GPT-3.5/4 que supuestamente bloquean el uso malicioso del chatbot.

Una declaración reciente de OpenAI sobre la inminencia de la inteligencia artificial general (también conocida como 'IA fuerte') declaraba que

"En algún momento, puede que sea importante contar con supervisión independiente antes de comenzar a capacitar a los sistemas futuros, [así como con] acuerdos para limitar la tasa de crecimiento del cómputo utilizado para crear nuevos modelos".

La carta menciona explícitamente este hecho y contesta a la compañía creadora de ChatGPT:

"Estamos de acuerdo. Ese momento es ahora".

Una propuesta de mínimos

Hacia el final de la carta, sus impulsores mencionan los pilares "mínimos" en que debe basarse la gobernanza de la IA:

  • Autoridades reguladoras nuevas y capaces dedicadas a la IA.
  • Supervisión y seguimiento de sistemas de IA altamente capaces y grandes conjuntos de capacidad computacional.
  • Sistemas de trazado y de marcas de agua para ayudar a distinguir lo real de lo sintético.
  • Establecimiento de responsabilidades por daños causados por la IA.
  • Robusta financiación pública para la investigación de seguridad en el campo de la IA.
  • Instituciones bien dotadas para hacer frente a las disrupciones económicas y políticas que causará la IA.

Vía | Reuters

Imagen | Pixabay & thecrazyfilmgirl (Flickr)

En Genbeta | Elon Musk: "la inteligencia artificial es más peligrosa que Corea del Norte"

Ver todos los comentarios en https://www.genbeta.com

VER 12 Comentarios

Portada de Genbeta