"Será un trabajo estresante", promete Sam Altman en esta oferta. Por eso ofrece más de medio millón de dólares de sueldo

La oferta de OpenAI promete, además de estrés, decisiones impopulares y un escrutinio constante. A cambio, ofrece la posibilidad de influir directamente sobre cómo —y hasta dónde— se permite avanzar a la IA más potente del momento

OpenAI
Facebook Twitter Flipboard E-mail
marcos-merino

Marcos Merino

Editor

"Será un trabajo estresante y tendrás que sumergirte de lleno desde el primer momento". Con esa advertencia poco habitual, Sam Altman, CEO de OpenAI, ha presentado en X una de las ofertas laborales más llamativas —y mejor pagadas— del sector tecnológico actual. El objetivo es cubrir el puesto directivo de 'Responsable de preparación', dedicado exclusivamente a anticipar, medir y contener los riesgos más graves de la inteligencia artificial avanzada.

La cifra explica parte de la franqueza: hasta 555.000 dólares anuales de salario base, más acciones, según la documentación interna de la compañía. En Silicon Valley, donde los sueldos son altos por definición, superar el medio millón sigue siendo una señal clara de que hay algo más que el mero talento técnico implicado.

Lo que está en juego es la posibilidad de que los modelos de IA más avanzados causen daños reales a gran escala... y de que alguien tenga la responsabilidad directa de evitarlo
Un vistazo a…
CHAT GPT-4 en 4 MINUTOS

Anteponer la gestión de riesgos a la comercial

Este puesto será una pieza clave para OpenAI en un momento 'crítico'. Los modelos mejoran a una velocidad sin precedentes y ya no solo generan texto o imágenes: encuentran vulnerabilidades de seguridad, influyen en estados mentales y empiezan a mostrar capacidades que podrían ser reutilizadas con fines destructivos.

El propio Altman lo reconoce sin rodeos: en 2025, dice, la compañía ya ha experimentado "un adelanto" del impacto de estos sistemas en la salud mental, y ahora empieza a observar cómo los modelos se vuelven lo bastante competentes en ciberseguridad como para detectar fallos críticos.

La empresa asume que el desarrollo de IA avanzada conlleva riesgos inevitables, y que la única opción responsable es poner a alguien bien pagado, con poder real y bajo enorme presión, a vigilar dónde y cuándo puede producirse el daño.

Así, el papel del responsable de Preparación no es el de ser un filósofo corporativo ni un portavoz tranquilizador, sino el responsable de la maquinaria de la seguridad: evaluaciones técnicas, modelos de amenaza, pruebas de abuso, mitigaciones y decisiones de lanzamiento.

Y, de hecho, una de las principales responsabilidades que recaerán sobre los hombros de la persona que contraten será decidir cuándo un modelo de IA es demasiado peligroso para lanzarse, incluso si eso implica perder ventaja frente a competidores menos cautos.

Está claro que no es un empleo cualquiera

Durante años, la crítica recurrente a las grandes empresas de IA fue que hablaban con cierta ligereza de los riesgos de su tecnología. OpenAI intenta ahora responder situando a alguien con nombre y apellido que responde por los peores escenarios posibles. El puesto supervisa las áreas que la compañía considera de 'daño severo': ciberseguridad, capacidades biológicas y químicas, y sistemas de IA capaces de auto-mejorarse.

Recordemos que, según sus propios baremos internos, OpenAI define 'daño severo' como resultados comparables a miles de muertes, lesiones graves a gran escala o pérdidas económicas de cientos de miles de millones de dólares. Es el tipo de definición que suele aparecer en planes de contingencia gubernamentales, no en ofertas de empleo publicadas en redes sociales.

Contexto interno y externo

El historial reciente de OpenAI muestra tensiones internas, salidas de responsables de seguridad y críticas públicas de antiguos líderes que denunciaron que la cultura de seguridad quedaba relegada frente a los lanzamientos rápidos (técnicamente, fue también la razón por la que el propio Altman fue brevemente cesado como CEO).

Por otro lado, OpenAI se enfrenta ahora a una oleada creciente de demandas y de escrutinio regulatorio, y a un clima social de cada vez mayor desconfianza. De hecho, encuestas recientes muestran que la mayoría de la población estadounidense percibe más riesgos que beneficios en la expansión de la IA, y una amplia mayoría prefiere regulaciones estrictas aunque eso ralentice el desarrollo.

Imagen | Marcos Merino mediante IA

En Genbeta | Empiezan a salir a la luz las vulnerabilidades del navegador de ChatGPT en materia de seguridad y privacidad 

Inicio