La controversia en la regulación de la IA: los creadores piden regulación a los gobiernos pero estos no saben qué está por llegar

Lenin Estrada Oi1toozskbw Unsplash
2 comentarios Facebook Twitter Flipboard E-mail

Esta semana el presidente de Microsoft se unía al club de los líderes de empresas que han lanzado importantes herramientas de inteligencia artificial al gran público y luego nos dan advertencias alarmantes. En el caso de Microsoft, lo que más chirría es que la empresa despidió a todo su equipo de ética mientras ultimaba sus grandes lanzamientos en el campo de la IA este año (lo que incluso le ha valido una reprimenda pública de las autoridades de Estados Unidos).

Muchos de los gigantes tecnológicos creadores de herramientas de IA hablan de regular estas herramientas pero dicen que han de ser los gobiernos quienes lo hagan, mientras se lavan las manos al respecto.

Pero, al mismo tiempo, tampoco hay informaciones que las empresas compartan con las autoridades nacionales o supranacionales de en qué se está trabajando (lo que tiene lógica porque tienen que mantener sus planes sin filtrar para evitar que la competencia les copie) para que puedan adelantarse a los acontecimientos.

Esto, todo junto, hace que tengamos en nuestras manos poderosas herramientas de IA (y todo lo que se espera que está por llegar), pero sin ninguna regulación.

Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

La necesidad de regular la IA según sus creadores

Mira Murati, una de las grandes mentes tras ChatGPT y,  probablemente, la mujer más poderosa en inteligencia artificial, tiene una vida muy discreta en la que hay pocos documentos con sus opiniones e ideas, pero ha visitado el programa estadounidense The Daily Show de Trevor Noah y ahí se tocaron temas interesantes como la regulación de las inteligencias artificiales o la ética en estas tecnologías.

En una entrevista a Time ya había dicho que la IA puede ser mal utilizada, o puede ser utilizada por mala gente.  Entonces, hay preguntas sobre cómo se controla el uso de esta tecnología a nivel mundial. Ella considera que, más que las empresas, deberían  ser los gobiernos y entes reguladores quienes toquen estas cuestiones.

El Center for AI Safety es una ONG que quiere "reducir los  riesgos a nivel de sociedad que conlleva la IA" y hace unos meses, en su web se publicaba el "Comunicado sobre el riesgo de la IA". Este comunicado, en el que participa también creadores, académicos,  periodistas y  reguladores entre otras, pretende avisar de los peligros de  desarrollar esta tecnología de forma inadecuada. Afirma este escueto comunicado que:

"Mitigar el riesgo de extinción por la IA debería ser una  prioridad mundial, junto con otros riesgos sociales a gran escala como  las  pandemias y la guerra nuclear".

Empresas que se han unido para su propia regulación

Con todo esto, hay grandes empresas que han anunciado uniones y medidas para su regulación, pero por ahora no está claro que sea algo efectivo o marketing. Por ejemplo, el julio, los creadores de ChatGPT se unen a Microsoft y Google para regular el desarrollo de la inteligencia artificial.

Cuatro de los principales actores de la IA anunciaban una unión para formar un nuevo organismo de la industria diseñado para garantizar el "desarrollo seguro y responsable" de la inteligencia artificial.

Así, el desarrollador de ChatGPT OpenAI, Microsoft, Google y Anthropic han anunciado el Frontier Model Forum, una coalición que se basa en la experiencia de las empresas miembro para desarrollar evaluaciones técnicas y puntos de referencia, y promover mejores prácticas y estándares.

Iniciativas para regular la IA

En la Unión Europea, en julio la Comisión anunció que como parte de su estrategia digital,  la UE quiere regular la inteligencia artificial (IA) para garantizar  mejores condiciones de desarrollo y uso de esta tecnología innovadora.  La IA puede aportar muchos beneficios, como lo son una mejor asistencia sanitaria, un transporte más seguro y  limpio, una fabricación más eficiente y una energía más barata y  sostenible.

En abril de 2021, la Comisión propuso el  primer marco regulador de la UE para la IA. Propone que los sistemas de  IA que puedan utilizarse en distintas aplicaciones se analicen y  clasifiquen según el riesgo que supongan para los usuarios. Los  distintos niveles de peligro implicarán una mayor o menor regulación.  Una vez aprobadas, serán las primeras normas del mundo sobre IA.

Italia llegó a prohibir en marzo a ChatGPT “con efecto inmediato” por tener serias dudas de su política de protección de datos. Fue la autoridad pública  Garante per la protezione dei dati personali (el equivalente a la  Agencia de Protección de Datos en España) la que ha dado la orden de limitar el procesamiento de los datos italianos por parte de OpenAI "con efecto inmediato", abriendo  de manera paralela una investigación.

Luego volvió a permitirlo aunque se le pidió ciertos cambios a la gran herramienta de OpenAI. En aquel momento, OpenAI contaba con un plazo de  20 días para demostrar que cumple con la ley, lo que en la práctica se  traduce en tomar medidas. Si no se ajustaba a este plazo, la prohibición  pasaría de provisional a permanente y se contemplaban sanciones  económicas.

En España se ha hablado en diversas ocasiones de regular, aunque más en el pasado y no hay decisiones contundentes de este año 2023 mientras esta tecnología se muestra imparable. En 2020 el Gobierno anunciaba la inversión de 600 millones de euros en un nuevo plan laboral que se apoyará en la Inteligencia Artificial y también se planteó una agencia pública que supervise el uso de los algoritmos y de la IA en España. 

Imagen| Foto de Lenin Estrada en Unsplash

En Genbeta | https://www.genbeta.com/a-fondo/amenaza-inteligencia-artificial-real-estos-20-empleos-riesgo-ser-sustituidos-ia

Comentarios cerrados
Inicio