Comprender a su propia IA es cada vez más difícil. Así que OpenAI ha usado GPT-4 para descifrar "las neuronas" de GPT-2

Openai2
1 comentario Facebook Twitter Flipboard E-mail

Cuando OpenAI lanzó al público su modelo de lenguaje GPT-3, supuso todo un referente en cuanto al desarrollo de complejos modelos de lenguaje. Sin embargo, en aras de seguir entrenando y mejorando las posibilidades y capacidades de su inteligencia artificial, la compañía ya lleva un tiempo aprovechando las bondades de GPT-4, un modelo mucho más preciso y completo, y que ya hemos visto en herramientas como ChatGPT y Bing Chat (aunque esta última edulcorada con la tecnología de Microsoft y algunas limitaciones).

Con el fin de seguir explorando las capacidades de su modelo de lenguaje, OpenAI está realizando labores de interpretabilidad en GPT-4. Esto quiere decir que la compañía está utilizando su modelo de lenguaje más reciente para generar explicaciones de GPT-2, el modelo que la compañía lanzó en 2019. De esta manera, la compañía busca poder comprender las 'neuronas' del último mencionado y así hacer que su IA pueda asistir para las labores de investigación de modelos de lenguaje.

Una IA explicando lo que dice otra IA

Si bien entrenar a una inteligencia artificial por medio de otra no es algo nuevo, es interesante conocer cómo OpenAI aprovecha la limitación de sus previos modelos de lenguaje para investigar acerca del funcionamiento de los mismos. En su reciente estudio, utilizan a GPT-4 para generar explicaciones sobre fragmentos generados por GPT-2. Todas las explicaciones obtenidas han sido recopiladas en un dataset junto a la nota obtenida de cada una de ellas. 

ia Las neuronas de GPT-2 actuando ante símiles. Imagen: OpenAI

Estudiar la interpretabilidad de las redes neuronales requería antes un proceso manual de las personas para inspeccionar el comportamiento de cada componente individual generado. Sin embargo, a medida que los modelos de lenguaje han aumentado considerablemente su capacidad hasta contar con miles de millones de parámetros, esta tarea se ha vuelto más ardua. Es por ello que utilizar un modelo de lenguaje más capacitado para estudiar el comportamiento de uno inferior ayudaría a aligerar en gran medida este proceso.

Esta tarea de interpretabilidad entra dentro de los planes de OpenAI para perseguir el objetivo de entrenar sus modelos de lenguaje hasta tal punto que puedan aprender correctamente a través del feedback dado y que puedan asistir a las personas en la labor de evaluar una inteligencia artificial.

Tal y como muestra OpenAI en su artículo, ofrecen a GPT-4 fragmentos generados por GPT-2 para que la primera mencionada pueda producir una explicación, simular el fragmento y compararlo con el original. La compañía ha realizado estos tres pasos para cada una de las más de 300.000 neuronas que cuenta GPT-2.

Openai Puntuación obtenida de la explicación. El valor decrece cuanto mayor es el tamaño del modelo. Imagen: OpenAI

Tras este procedimiento, mediante un sistema de puntuación han podido medir la efectividad de sus técnicas e intentar mejorar aquellos ejemplos en los que la IA ha generado una explicación pobre. Desde OpenAI afirman que tras haber evaluado su procedimiento para generar explicaciones, han comprobado que funciona de peor manera si utilizan modelos de lenguaje superiores. Además, también admiten que la gran mayoría de las explicaciones han obtenido una puntuación baja pero siguen creyendo que el machine learning les ayudará a mejorar la habilidad de la IA para producir explicaciones.

En su estudio reflejan que pueden mejorar sus procesos e incrementar la puntuación de estas explicaciones haciendo que GPT-4 genere otros contraejemplos. Además, también afirman que las puntuaciones mejorarían cuanta mayor capacidad tenga el modelo de lenguaje encargado de generar las explicaciones. Por último, OpenAI revela que las puntuaciones también mejorarían si se opta por cambiar la arquitectura del modelo que ha recibido la explicación. El paper original lo puedes encontrar a partir de este enlace

Todo el conjunto de explicaciones y puntuaciones han sido recopiladas en un dataset junto a herramientas de visualización por OpenAI. Los datos han sido compartidos por la compañía en código abierto para que la comunidad también pueda experimentar con ellos y desarrollar así nuevas técnicas que ofrezcan mayores puntuaciones en las explicaciones.

En Genbeta | La historia del CEO que paga por una suscripción de ChatGPT y dice ahorrar trabajo a sus empleados de tareas tediosas

Comentarios cerrados
Inicio