Alemania, Francia e Italia (sin España) comienzan a regular la Inteligencia Artificial para toda Europa: las claves de su propuesta

  • La regulación estará basada en la división de tres niveles de IA que dependerán de las capacidades de las tecnologías

  • La ley defiende regular la aplicación de la IA y no la tecnología en sí misma

europa
1 comentario Facebook Twitter Flipboard E-mail

Tras haber sorprendido a medio mundo, las tecnologías de inteligencia artificial generativa han sido las protagonistas de buena parte de 2022 y todo 2023. Desde el lanzamiento de herramientas como ChatGPT, DALL-E, Bing Chat, Bard y otras tantas, son muchos los que han cambiado su rutina para hacerle hueco a alguna de estas tecnologías en su día a día. Sin embargo, a pesar de sus beneficios, también existe un riesgo real del que muchos expertos y grandes tecnológicas han querido exponer.

En Europa se lleva un buen tiempo queriendo regular este tipo de tecnologías para hacer de ellas un uso responsable y sostenible. La última noticia de ello es que tanto Alemania como Francia e Italia han sido los principales protagonistas de dar carpetazo al asunto con la elaboración de una regulación estricta para las tecnologías basadas en la IA, todo lo contrario a Estados Unidos, donde defienden una regulación mucho más permisiva y sin demasiada oposición ante el desarrollo de la IA generativa.

Una ley estricta que operará en base a tres niveles de IA

Tras el acuerdo del G7 celebrado el pasado 30 de octubre, los máximos representantes de la Comisión Europea han acordado estipular una regulación estricta, aunque similar a la impuesta por Japón, donde aunque existan ciertas barreras, todavía hay cierto margen en el que las grandes tecnológicas se pueden apoyar para desarrollar este tipo de tecnologías tan disruptivas.

La cierta permisividad que pueda haber en la regulación no obstaculiza el objetivo de proteger los derechos de autor o de evitar la exposición de nuestra información personal. Además, cabe destacar que los tres gobiernos se han puesto de acuerdo sin la intervención de otros países, por lo que el documento todavía tiene que aprobarse por el resto de países miembros de la Comisión Europea.

A pesar de estos avances, aún queda bastante trabajo por hacer. Y es que durante la cumbre del G7 celebrada hace tan solo tres semanas propuso un código de conducta que debían de seguir las grandes empresas tecnológicas que trabajen en el campo de la IA. Para que entre en vigor dicho código de conducta aún debe revisarse por multitud de organismos internacionales, entre ellos la OCDE (Organización para la Cooperación y el Desarrollo Económicos) o la Alianza Global sobre Inteligencia Artificial.

Este código de conducta es voluntario, por lo que no dará lugar a la aprobación de una o varias leyes. Algo muy distinto a la regulación que desde la Unión Europea están trazando desde mayo de 2022, de la cual sí se efectuará una ley. Su estrategia se centra en dividir en tres niveles los sistemas basados en IA, cada uno con distintas prestaciones y que serán regulados por medio de cierto tipo de restricciones dependiendo de la capacidad de cada uno de ellos.

El objetivo es que dicha regulación esté lista lo antes posible, aunque la propuesta de Alemania, Francia e Italia tendrá que debatirse en las próximas reuniones de la Comisión Europea, Parlamento Europeo y Consejo de Europa para así conocer el veredicto del resto de países miembros.

La regulación estipulada por dichos países busca aplicar restricciones al uso que se le da a la inteligencia artificial y no a la propia tecnología. "Los riesgos inherentes a la IA residen en el uso que vamos a dar a los sistemas de inteligencia artificial y no en la propia tecnología," según se puede apreciar en el documento propuesto. Además, la regulación también insiste en que “los modelos deberán incluir información relevante que permita comprender su funcionamiento, sus capacidades y sus límites, y deben estar soportados por las mejores prácticas de la comunidad de desarrolladores".

Las sanciones por incumplimiento del código de conducta no han sido estipuladas, ya que la regulación propone aplicarlas cuando se haya supervisado dicha violación del código para idear un sistema de sanciones al alcance de las infracciones. Queda ver cómo acaban recibiendo esta propuesta los demás países de la Unión Europea y conocer cómo afecta esta regulación a la comunidad open source, la cual quizás podría ser la más perjudicada al no haber demasiados márgenes de operación sobre dichas tecnologías.

Imagen | Markus Spiske

En Genbeta | Meta quita su equipo de ética en inteligencia artificial, aunque avanza en el desarrollo de la IA. Otras tech han hecho lo mismo

Inicio