OpenAI presionó a la UE para flexibilizar la normativa sobre IA mientras su CEO seguía pidiendo más regulación en público

Doscaras
2 comentarios Facebook Twitter Flipboard E-mail

Hace un mes nos hacíamos eco de la presentación del nuevo borrador del Reglamento de Inteligencia Artificial de la Unión Europea, y de la amenaza que representaba para los proyectos 'open source' de IA. Semanas más tarde, recibía el primer 'visto bueno' de su camino hacia la aprobación y entrada en vigor.

Pese a ser una normativa que parecía hecha a medida de los grandes proyectos propietarios, Sam Altman puso sobre la mesa la posibilidad de retirar el acceso a ChatGPT en Europa… un ademán que ha terminado siendo, sin embargo, breve. Y hay una buena razón para ello.

Ahora, la revista TIME ha sacado a la luz que OpenAI, la compañía desarrolladora de ChatGPT y DALL-E, ha estado ejerciendo activamente labores de lobby ante las instituciones de la UE en relación con la normativa reguladora de la IA.

Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

Regulemos mucho… ¿pero flojo?

Dicha campaña, que ahora sabemos que se enfocó en lograr 'flexibilizar' secciones específicas del borrador, contradice las múltiples y constantes declaraciones públicas del Sam Altman, CEO de la compañía, a favor de normas más estrictas en la industria de la IA.

Las afirmaciones de TIME se basan, concretamente, en un informe de siete páginas, presentado por OpenAI ya en 2022, en el cual la compañía instaba a la UE a eliminar ciertas definiciones de sus borradores legislativos que podrían haber provocado que se categorizara a ChatGPT, entre otros, como una 'IA de alto riesgo'.

Las 'sugerencias' de OpenAI han demostrado ser exitosas, pues el borrador final de la Ley de IA incorpora varios cambios que coinciden con la postura de los creadores de ChatGPT.

De este modo, OpenAI ahora ha pasado a estar (o, más bien, ha estado en todo momento) alineada con otros gigantes tecnológicos como Microsoft y Google, que han abogado por regulaciones más flexibles para los grandes proveedores de IA dentro de la UE. Las organizaciones pro-software libre, sin embargo, ya han denunciado no contar con esa misma relación de interlocución preferente con los legisladores de la UE.

Por su parte, Sarah Chander, asesora de políticas senior de European Digital Rights, ha criticado las motivaciones de OpenAI, afirmando que la organización prioriza sus intereses financieros utilizando el argumento de la utilidad y el beneficio público de la IA para provocar la flexibilización de las regulaciones.


Las contradicciones de Sam Altman al hablar de los peligros y regulaciones de la IA son una constante desde que tomó las riendas de OpenAI: tan pronto le quita hierro a un manifiesto de 'primeros espadas' de Silicon Valley que denuncian la peligrosidad de la IA, como te reconoce que tiene un búnker preparado en algún lugar de California preparado para una 'rebelión de las máquinas'.

Las intervenciones públicas de Altman deben, sin embargo, ser analizadas con mucho cuidado: si bien sus palabras sobre la peligrosidad de la IA estuvieron entre las más citadas tras su reciente intervención ante el Senado estadounidense…

…muchos analistas criticaron el planteamiento de dicha comisión parlamentaria, cuyos miembros llegaron a ofrecerse, sutilmente, a sacar adelante una 'regulación a medida' para OpenAI y el resto de líderes de la industria.

Imagen | TechCrunch + Public Domain Vectors + Pixabay

En Genbeta | Con GPT-4 tenemos una bomba nuclear entre manos. En 2019, OpenAI no permitió acceder su antepasado por ser "muy peligroso"

Comentarios cerrados
Inicio