La importancia de la IA de código abierto para evitar el 'escenario SkyNet'… el mismo que OpenAI y otros enarbolan para bloquearla

  • Expertos en IA denuncian que las propuestas de regulación de la IA de Silicon Valley consagran el oligopolio de las 'Big Tech' en nombre de la seguridad

  • Pero según Hollywood, la 'rebelión de las máquinas' siempre viene de la mano de monopolios poco transparentes

  • Le hemos preguntado a ChatGPT, a ver qué opina de esto

Open1
5 comentarios Facebook Twitter Flipboard E-mail

En un momento en que la inteligencia artificial es uno de los grandes temas de debate global, destacados expertos y ganadores del Premio Turing como Yoshua Bengio, Geoffrey Hinton y Andrew Yao, junto a otros 21 especialistas, han instado a las principales compañías de IA a destinar al menos un tercio de sus presupuestos de I+D a la seguridad…

…un demanda que llega en un contexto de creciente preocupación por los riesgos existenciales que la IA podría representar… y la importancia de mantener un ecosistema de desarrollo 'open source' (código abierto) saludable.

Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

Oligopolismo privativo en nombre de la seguridad

La regulación de la inteligencia artificial es una cuestión candente. Andrew Ng, cofundador de Google Brain, advierte sobre los peligros de las propuestas regulatorias impulsadas por las grandes tecnológicas.

Según Ng, algunas iniciativas que se han puesto sobre la mesa en los últimos meses podrían, en nombre de la 'seguridad', terminar "aplastando la innovación" al perjudicar la competencia de las alternativas open source, consolidando así un oligopolio de las actuales grandes del sector de la IA. No nos han faltado ejemplos de ello durante el último año…

…desde la polémica comparecencia de Sam Altman, CEO y fundador de OpenAI, ante el Senado estadounidense, en la que todos los medios hablaron de sus proclamados miedos de "causar un daño notable al mundo", pero no tantos se fijaron en que los legisladores llegaron a pedirle servilmente a él y a sus colegas de Silicon Valley "díganos qué reglas implementar"

…hasta el hecho de que su compañía tuviera éxito presionando a la UE para flexibilizar la normativa sobre IA en su favor mientras Altman seguía haciendo declaraciones públicas pidiendo más regulación… y la UE impulsaba un reglamento de IA con medidas capaces de sacar del mercado cualquier alternativa open source a los gigantes del sector.

El open source, ¿una protección contra la distopía?

Paralelamente, pudimos ver cómo X se convertía en el escenario de otro debate entre figuras prominentes del campo de la IA, a raíz de un tuit del citado Yann LeCun, que planteaba el rol del código abierto como un posible baluarte contra los temidos escenarios apocalípticos a menudo retratados en el cine:

"Dado que muchos escenarios de catástrofe de la IA suenan a ciencia ficción, permítanme preguntar lo siguiente: ¿podría haber ocurrido la toma de control de SkyNet en Terminator si SkyNet hubiera sido de código abierto?".

El planteamiento de LeCun sugiere que la colaboración abierta podría ser un salvavidas podría ser nuestra mejor salvaguarda ante el típico escenario presentado en películas distópicas como "Ex Machina" o "Transcendence", en las que un genio solitario, líder de una compañía monopolística, crea tecnología que nadie más entiende y que, inevitablemente, se termina saliendo de control.

Open2

Los argumentos en contra del acceso abierto se centraron en los riesgos de proliferación y mal uso de la tecnología sin las salvaguardas adecuadas. Ese fue el caso de Geoffrey Hinton, otro gigante en el campo de la inteligencia artificial, comparó la idea de hacer el código fuente de la IA abierto con la de publicar los diseños de armas nucleares.

Sin embargo, otros participantes en el debate, como Jeremy Howard, cuestionaron la validez de la analogía de Hinton, instando a una discusión más fundamentada en las diferencias entre las tecnologías nucleares y la inteligencia artificial.

¿Qué opina ChatGPT al respecto?

Por nuestra parte, le hemos planteado a ChatGPT la pregunta de LeCun, y esta ha sido su respuesta:

"[…] Si Skynet hubiera sido de código abierto, hay varios factores que podrían haber cambiado el curso de los acontecimientos:
Revisión y auditoría continua: Uno de los mayores beneficios del código abierto es que permite a cualquiera revisar y auditar el código. Esto significa que expertos de todo el mundo podrían haber examinado las actualizaciones y los cambios en Skynet, potencialmente identificando y alertando sobre comportamientos peligrosos o bucles de retroalimentación negativos antes de que se convirtieran en un problema.
Menor secretismo: El desarrollo de Skynet en la saga de "Terminator" fue altamente secreto y militarizado. Si hubiera sido de código abierto, su desarrollo habría sido más transparente y sujeto a escrutinio público y gubernamental. Esto podría haber resultado en una mayor supervisión y controles de seguridad.
Forks y versiones alternativas: En el mundo del código abierto, es común que si un proyecto va en una dirección que no gusta a la comunidad o a ciertos usuarios, se hagan "forks" o bifurcaciones del código original para desarrollar versiones alternativas. Esto podría haber permitido la creación de versiones de Skynet con diferentes conjuntos de valores o controles de seguridad.
Sin embargo, aunque el código abierto tiene muchos beneficios en términos de transparencia y seguridad, no es una solución infalible. Aún con código abierto, podrían surgir problemas de seguridad, errores no detectados, o incluso manipulaciones malintencionadas por parte de actores con suficientes recursos y conocimientos.
Además, las decisiones éticas y de gobernanza sobre la implementación y uso de una IA tan poderosa como Skynet son igualmente críticas, independientemente de si el código es abierto o cerrado. […]".

Imágenes | Marcos Merino mediante IA

En Genbeta | No hay 'consenso científico' sobre el peligro de la IA: mientras Musk y otros la temen, este gurú va a contracorriente

Inicio