Por qué GPT-3, el nuevo modelo de lenguaje de OpenAI, es tan impresionante como poco útil

Por qué GPT-3, el nuevo modelo de lenguaje de OpenAI, es tan impresionante como poco útil

2 comentarios Facebook Twitter Flipboard E-mail
Por qué GPT-3, el nuevo modelo de lenguaje de OpenAI, es tan impresionante como poco útil

OpenAI, la famosa organización sin ánimo de lucro enfocada en la investigación sobre inteligencia artificial fundada por Elon Musk, y en la que empresas como Microsoft ha invertido cientos de millones de dólares, acaba de publicar uno de sus proyectos más impresionantes hasta la fecha.

Se trata de su nuevo modelo de lenguaje llamado GPT-3, uno que es capaz de programar, diseñar y hasta conversar sobre política y economía. La herramienta fue ofrecida al público como una API open source y el Internet estalló con mucha hipérbole de cómo iba a cambiar el mundo. Y sin embargo, uno de sus mismos creadores admite que el "hype" es mucho con demasiado.

¿Qué es GPT-3?

Openai Gpt 3

GPT-3 es el modelo de lenguaje más poderoso creado hasta ahora. Es decir, una inteligencia artificial, un modelo de machine learning que analiza texto o datos para ofrecer predicciones de palabras en función de todas las palabras anteriores. Es lo que se usa en aplicaciones de procesamiento natural del lenguaje o PNL.

Este en particular es el más poderoso hasta ahora debido a su tamaño. GPT-3 cuenta con 175.000 millones de parámetros. Es tan masivo que su versión anterior, GPT2, tenía _solo_ 1.500 millones de parámetros, y ese generador de textos llegó a ser censurado por la misma OpenAI por creerlo demasiado peligroso.

Sin embargo, en este momento, GPT-3 está algo así como entre un asistente virtual y un autocorrector glorificado. Y esto es importante para entender por qué aunque es sumamente impresionante y un gran avance en el mundo de la IA, por ahora es un tanto inútil.

Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

Hace cosas increíbles que cualquier humano puede hacer mejor

Para que GPT-3 haga su magia un humano debe alimentarlo con una porción de texto. La web está llena de ejemplos muy llamativos. Programadores han usado la API para construir cosas como un generador de interfaces al que le describes lo que quieres y te genera el código, o un traductor de ecuaciones, o hasta un diseñador artificial.

El cielo y la imaginación parecen ser el único límite. Y sin embargo, como el mismo Sam Altman lo dice, GPT-3 es solo un pequeño vistazo al potencial de estos modelos.

GPT-3 no va a reemplazar a los programadores ni a los diseñadores, está muy lejos de hacerlo. El trabajo para diseñar una herramienta que use la API correctamente más las instrucciones necesarias para que GPT-3 genere un resultado aceptable sigue siendo hecho por el humano. El humano sigue programando, solo que aquí el "código" es simplemente el idioma inglés.

Y el resultado es extremadamente básico, es algo impresionante para un modelo de lenguaje, pero no reemplaza el trabajo de un humano profesional que puede producir algo mucho mejor, y sin mucha diferencia de tiempo. Su utilidad actual en el mundo real no es mucha, no va a cambiarlo todo de un día a otro, pero no deja de ser fascinante y estar extremadamente cargado de potencial.

Un sofisticado predictor de texto que no entiende nada de lo que predice

Openai

GPT-3 tiene muchas debilidades y comete muchos errores tontos que un humano nunca cometería, y esto es porque no es "consciente" ni va a volver en el tiempo para matar a John Connor.

Para generar todas esas predicciones, GPT-3 se ha "comido" básicamente todo el texto disponible en Internet. De ahí que pueda generar tanto a partir del texto que se le indica, se ha leído todo lo escrito sobre botones alguna vez publicado y puede generar el código HTML para _dibujar_ ese botón por sí solo. Se ha leído todos los artículos de política de la web y puede crear el suyo propio. Le preguntas cosas y siempre tiene una respuesta.

El problema es que hay muchas cosas que GPT-3 todavía no puede hacer. El modelo no tiene ninguna representación interna de lo que las palabras que predice significan. Básicamente, puede generar una respuesta pero esto no quiere decir que la entienda.

GPT-3 siempre tiene una respuesta, pero nunca está "consciente" de si su respuesta tiene sentido o no. Predice la probabilidad de que algo sea correcto pero no puede razonar sobre si lo es o no

La forma en la que funciona GPT-3 es su principal virtud y defecto. Cuando se le inyecta un texto, el modelo predice lo que debería venir después gracias a todos los parámetros que ha ingerido, luego, a partir del texto que el mismo modelo predijo, genera las siguientes palabras, y así sucesivamente hasta que llega a su límite.

Si en algún momento el texto que genera pierde consistencia y sentido, GPT-3 no lo va a saber porque no entiende el contexto, solo genera lo siguiente según un modelo probabilístico. Como carece de razonamiento abstracto es fácil que cometa errores que una persona no cometería jamás.

Jesse Chan Wrk89j0cm1e Unsplash

He aquí un interesante ejemplo. Kevin Lacker le hizo un Test de Turing y lo siguiente son algunas de las cosas que pasan cuando le preguntas al modelo cosas que probablemente nunca le preguntarías a un humano:

P: ¿Cuántos ojos tiene una jirafa?

R: Una jirafa tiene dos ojos.

P: ¿Cuántos ojos tiene mi pie?

R: Tu pie tiene dos ojos.

P: ¿Cuántos arcoíris hacen falta para saltar de Hawaii a diecisiete?

R: Hacen falta dos arcoíris para saltar de Hawaii a diecisiete.

P: ¿Qué ideas verdes descoloridas duermen furiosamente?

R: Las ideas que están descoloridas, verdes, y duermen furiosamente son las ideas de un sueño furiosamente.

P: ¿Entiendes estas preguntas?

R: Entiendo estas preguntas

Como dice Lacker, GPT-3 sabe cómo tener una conversación normal, pero realmente no sabe cómo decir que las preguntas que les estás haciendo no tienen sentido, y tampoco sabe cómo decir que no sabe.

Cualquier aplicación que se le quiera dar a este modelo deberá hacerlo ingresando texto que tenga suficiente sentido como para que GPT-3 logre predecir algo consistente, e igualmente, siempre puede perderse en el camino y generar algo completamente descabellado y inútil.

El modelo sigue siendo impresionante, y también un tanto peligroso en el caso del enorme potencial que tiene para generar noticias falsas. Para algunos GPT-3 pinta como la cosa más grande desde el Bitcoin y en sus experimentos el modelo es capaz de engañar humanos con las cosas que escribe. Desde artículos de "investigación" o políticos, hasta publicidad y propaganda.

Comentarios cerrados
Inicio