"No trabajes en LLMs": este experto en inteligencia artificial recomienda a los estudiantes apostar por nuevas IAs menos "limitadas"

Yann LeCun, Premio Turing 2018 y padre de los modelos LLaMA, cree que no llegaremos a la 'IA General' trabajando en una tecnología incapaz de entender el mundo físico

No Llms
Sin comentarios Facebook Twitter Flipboard E-mail

París acoge en estos días la conferencia tecnológica VivaTech, y uno de sus participantes, Yann LeCun (jefe de IA en Meta y profesor de la Univ. de Nueva York), acaba de iniciar allí un acalorado debate al aconsejar a la próxima generación de desarrolladores que no dediquen sus esfuerzos a desarrollar modelos de lenguaje grandes (LLMs), como GPT-4 y similares.

"Esto está en manos de grandes empresas, no hay nada que puedan aportar", afirmó LeCun, instando a los desarrolladores a enfocarse en sistemas de IA de próxima generación que superen las limitaciones de los LLMs.

"Yo mismo estoy trabajando en sistemas de inteligencia artificial de próxima generación, no en LLMs. Así que, técnicamente, te estoy diciendo 'compite conmigo', o más bien, 'trabaja en lo mismo que yo, porque ese es el camino a seguir, y cuanto más seamos, mejor'"

Las limitaciones de los LLMs

LeCun se ha mostrado crítico a la hora de valorar la capacidad de los LLMs para alcanzar un nivel de inteligencia similar al humano. De hecho, en declaraciones recientes al Financial Times, señaló que estos modelos

"no entienden el mundo físico, no tienen memoria persistente, no pueden razonar de manera lógica y no pueden planificar de manera jerárquica".

Todas ellas limitaciones que, según él, convierten a los LLMs en inadecuados para el objetivo de alcanzar una inteligencia artificial avanzada. En su lugar, Meta ha estado trabajando en una tecnología denominada V-JEPA (siglas en inglés de 'Arquitectura Predictiva de Inserción Conjunta de Vídeo'), que promete detectar y entender interacciones de objetos con gran detalle.

Opiniones divididas

Las declaraciones de LeCun han provocado reacciones de todo tipo. Algunos desarrolladores y científicos de datos consideran que, por el contrario, ahora es el momento perfecto para trabajar en LLMs debido a su potencial no explotado en áreas como la generación de prompts, el jailbreaking y la accesibilidad.

Geoffrey Hinton, otro pionero de la IA (y ganador junto a LeCun del Premio Turing 2018), ha expresado una opinión contraria a su colega, defendiendo que el cerebro artificial está muy cerca del cerebro humano y abogando por una mayor inversión en LLMs. Sin duda, una discrepancia fundamental entre dos gigantes de la IA.

Pero otros expertos del sector se sitúan junto a LeCun para denunciar una "obsesión manifiesta" de la industria tecnológica por unos LMM que realmente, constituyen "un callejón sin salida para lograr un verdadero progreso", poco más que un "tejido conectivo que agrupa sistemas" de manera rápida y eficiente, pero no un verdadero ejemplo de IA.

Además, también se alzan voces que sugieren que la concentración de poder en unas pocas grandes empresas es perjudicial, y apoyan la postura de LeCun sobre la necesidad de sistemas abiertos y descentralizados.

De hecho, él sostiene que el hecho de que unas pocas entidades controlen el desarrollo y despliegue de la IA "será extremadamente peligroso para la diversidad de pensamiento, para la democracia, para casi todo", más aún cuando se muestra convencido de que "con el tiempo, todas nuestras interacciones con el mundo digital estarán mediadas por asistentes de IA".

Alternativas a los LLMs

La discusión sobre alternativas a los LLMs ha sido recurrente. LeCun y otros expertos sugieren enfoques como:

  • La IA multimodal: integra múltiples formas de datos (texto, imágenes, video) para una comprensión más holística.
  • La IA general: La AGI busca dotar a las máquinas de capacidades de razonamiento y adaptación similares a las humanas.
  • El aprendizaje no supervisado: permite que los modelos descubran por sí mismos patrones sin depender de datos etiquetados.

Mufeed VH, creador de Devika, se ha sumado al debate abogando por alejarse de los modelos basados en transformadores (como la actual generación de LLMs) y atreverse a explorar nuevas arquitecturas, como RWKV, que ofrecen ventanas de contexto ilimitadas y una inferencia más eficiente.

Vía | X

Imagen | Marcos Merino mediante IA

En Genbeta | "No estamos aquí para masturbarnos por el número de parámetros". El CEO de OpenAI quita importancia a lo que más se alababa de GPT-4

Inicio