Nadie sabe, fuera de OpenAI y Microsoft, qué inteligencia artificial están creando en la nube: es un "riesgo" según los académicos

La opacidad con la que OpenAI desarrolla sus tecnologías, hace que sean de poca confianza, de acuerdo con expertos de Oxford

Edwin Hooper Tj9rbjaaguq Unsplash
Sin comentarios Facebook Twitter Flipboard E-mail

De acuerdo con académicos de la Universidad de Oxford, existe un gran riesgo al no saber qué está construyendo OpenAI en la nube y es que, advierten, la empresa creadora de grandes tecnologías como ChatGPT o GPT-4 está ocultando detalles críticos sobre confiabilidad.

Uno de los acontecimientos fundamentales en inteligencia artificial (IA) en 2023 fue la decisión de OpenAI, el creador de ChatGPT, de no revelar casi ninguna información sobre su último modelo de lenguaje grande (LLM), GPT-4, cuando la compañía presentó el programa en Marzo.

Según la información que comparte ZDnet de este grupo de académicos, "ese repentino giro hacia el secreto se está convirtiendo en una cuestión ética importante para la industria tecnológica porque nadie sabe, fuera de OpenAI y su socio Microsoft, qué está sucediendo en la caja negra de su nube informática", como han dicho Emanuele La Malfa de la Universidad de Oxford y colaboradores del Instituto Alan Turing y la Universidad de Leeds.

Un vistazo a…
'Sgroogled.com': cuando MICROSOFT lanzaba anuncios ANTI-GOOGLE

"Ninguna empresa puede confiar" en estos modelos cerrados

Esta advertencia no es nueva. Por ejemplo, Emad Mostaque, director ejecutivo de la startup de IA generativa Stability.ai, que produce herramientas como el generador de imágenes Stable Diffusion, ha dicho que ninguna empresa puede confiar en programas de código cerrado como GPT-4.

"Los modelos abiertos serán esenciales para los datos privados", dijo Mostaque durante una pequeña reunión en mayo. "Es necesario saber todo lo que hay dentro; estos modelos son muy poderosos".

La Malfa y su equipo revisan la literatura sobre los distintos modelos de lenguaje e identifican cómo la ofuscación impide una auditoría de los programas según cuatro factores críticos: accesibilidad, replicabilidad, comparabilidad y confiabilidad.

Los autores señalan que estas preocupaciones son una más dentro de la ética de la IA: "Estas cuestiones son específicas del paradigma LMaaS y distintas de las preocupaciones preexistentes relacionadas con los modelos de lenguaje".

Imagen | Foto de Edwin Hooper en Unsplash

En Genbeta | El CEO de OpenAI reacciona a la carta de Elon Musk sobre el riesgo  de la inteligencia artificial: "Tranquilo en el ojo del huracán"

Inicio