Uno de los líderes de seguridad de OpenAI abandona la empresa y explica sus motivos: la (falta de) seguridad

  • Esta semana dos trabajadores claves de la empresa detrás de ChatGPT han dicho adiós

  • De puertas para afuera, OpenAI triunfa por sus productos. Dentro, las aguas están revueltas

Growtika F0jgorlokw0 Unsplash
3 comentarios Facebook Twitter Flipboard E-mail

OpenAI está detrás de uno de los productos tecnológicos más revolucionarios y excitantes de los últimos años: ChatGPT, pero la firma tiene sus claroscuros y bastante hermetismo a la hora de hablar sobre su política de empresa. Al culebrón de Sam Altman de los últimos meses y la reciente salida de Ilya Sutskever (unos de sus fundados) se une otro abandono del barco: el de Jan Leike, el codirector de su equipo de 'superalineación', un puesto que supervisa los problemas de seguridad. Pues bien, Jan Leike ha hablado sobre su marcha y OpenAI no sale muy bien parada.

Vaya por delante que para quienes están al tanto del entorno de OpenAI esta noticia seguramente no les pille de sorpresa. El lunes la compañía presentaba el prometedor ChatGPT -4o y pocas horas después, Ilya Sutskever renunciaba a su trabajo en OpenAI el martes. Con el adiós del ex científico jefe de la compañía,  el hashtag '#WhatDidIlyaSee' (lo que Ilya vio) volvió a ser tendencia en Twitter meses después de su origen, cuando el fugaz despido de Altman. ¿Qué está pasando en OpenAI?

Jan Leike dice adiós a OpenAI: la seguridad, en el punto de mira

En un hilo de X (anteriormente conocido como Twitter) publicado hace unas horas, Leike da explicaciones sobre su adiós a OpenAI.

Así, afirma que pese a haberse unido a OpenAI por ser el mejor lugar en el mundo para su investigación (es investigador de machine learning), había estado 'en desacuerdo con el liderazgo de OpenAI sobre las prioridades centrales de la compañía', llegando a un punto de ruptura.

Captura De Pantalla 2024 05 18 A Las 9 23 40 Toca para ir a la publicación de X/Twitter

Leike cree que la empresa debería centrarse más en 'seguridad, seguimiento, preparación, protección, la solidez de sus adversarios, (super) alineación, confidencialidad, impacto social y temas relacionados. ' No son pocos ni asuntos baladíes, tomó la decisión considerando que 'es bastante difícil solucionar estos problemas y me preocupa que no estemos en la trayectoria para llegar allí'.

Leike tiene claro que OpenAI tiene una inmensa responsabilidad con su labor: 'Construir máquinas más inteligentes que los humanos es una tarea intrínsecamente peligrosa', por lo que estas carencias se hacen más graves si cabe: 'en los últimos años, la cultura y los procesos de seguridad hayan pasado a un segundo plano frente a los productos brillantes'.

Captura De Pantalla 2024 05 18 A Las 9 33 45 Toca para ir a la publicación de X/Twitter

Leike parece tomarse muy en serio el objetivo de la empresa de trabajar hacia la inteligencia artificial general (conocida como AGI), un sistema que procesa información como los humanos, más allá de los modelos de grandes lenguajes: 'Hace mucho que deberíamos tomarnos increíblemente en serio las implicaciones de la AGI'. En este sentido, considera que 'debemos priorizar la preparación para ellas lo mejor que podamos. Sólo entonces podremos garantizar que AGI beneficie a toda la humanidad'.

De acuerdo con la opinión de Leike, OpenAI necesita 'convertirse en una empresa AGI que priorice la seguridad' e invita a su plantilla a comprometerse para 'actuar con la seriedad apropiada para lo que están construyendo'.

Estas renuncias de personas que saben qué hay detrás de la inteligencia artificial en general y de OpenAI en particular, contribuyen a aumentar los temores hacia esta tecnología revolucionaria y la empresa mejor posicionada hasta el momento para llevarla a cabo.

Portada | Montaje con Foto de Growtika en Unsplash y Foto de Jan Leike en Twitter

En Genbeta | Cómo gana dinero OpenAI, la empresa detrás de ChatGPT y Dall-E de la que Elon Musk es socio fundador

Inicio