Europa aprueba la primera ley de regulación de inteligencia artificial del mundo: la clave está en los usos prohibidos y sus excepciones

Repasamos los puntos clave de la ley IA Act, pionera en el mundo. Vela por la transparencia, los derechos humanos y valores de la UE

Aunque esta es una cuestión peliaguda y de largo recorrido donde Alemania, Francia e Italia ya establecieron inicialmente sus bases, en los últimos días conocíamos el estado y alcance de las conversaciones para establecer una regulación de la inteligencia artificial en la Unión Europea que ha culminado en   un acuerdo provisional, en tanto en cuanto que deberá ser ratificado tanto por los estados miembros como por el Parlamento. ¿El resultado? Una definición de obligaciones y normativa para la inteligencia artificial en la nueva IA Act: estos son sus puntos más importantes.

Entre la noche del viernes y el sábado se cerraba este acuerdo provisional de esta ley de inteligencia artificial pionera en el mundo, algo de lo que el comisario Thierry Breton se jactaba en su perfil de X/Twitter. De forma más solemne, la presidencia española del Consejo de la UE explicaba en la misma red social que este acuerdo provisional tiene como objetivo 'garantizar que los sistemas de IA comercializados y usados en la UE sean seguros y respeten los derechos fundamentales y los valores UE.' De este modo, la presidencia europea cumple uno de sus objetivos previstos antes de terminar su ciclo a finales de este año.

Este acuerdo provisional comenzaba a cocerse el miércoles y, horas y horas de duras negociaciones después por cuestiones clave como hasta dónde permitir la autorregulación del sector y dónde intervenir, prohibiciones y excepciones o simple y llanamente por detalles que todavía no se han revelado. Vamos a ver las aplicaciones prohibidas, excepciones y obligaciones fundamentales de esta ley.

Lo esencial: transparencia y clasificación por riesgos

Transparencia en la presencia de la IA en el día a día. Chatbots, deepfakes y otros contenidos generados por inteligencia artificial deberán ser claramente etiquetados, de forma que usuarios y usuarias sepan que están frente a una inteligencia artificial. Aquellos contenidos made in IA, además deberán estar marcados para que sea detectado como tal. Asimismo, en caso de usar sistemas de categorización biométricas o reconocimiento de emociones, las personas deberán ser informadas.

La clasificación de usos y aplicaciones inteligencia artificial se definirá en función de su riesgo:

  • De riesgo mínimo, en el que entran la mayoría. Aquí tiene cabida los sistemas de recomendación o filtros de spam. Se considera que suponen un riesgo mínimo o nulo para los derechos o la seguridad de la ciudadanía y como tal, carecerán de obligaciones. Sin embargo, quien así lo desee puede comprometerse a adoptar códigos de conducta voluntarios.
  • De alto riesgo. Se considerarán como tal por su potencial  daño a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho (por ejemplo, aquellos que pueden usarse para influir en el resultado de las elecciones), como pueden ser infraestructuras energéticas, dispositivos médicos, control de fronteras, administración de justicia, sistemas biométricos. Los que se clasifiquen en este nivel tendrán que cumplir una serie de requisitos como registro de actividad, documentación detallada, información clara del usuario, supervisión humana y un alto nivel de robustez, precisión y ciberseguridad. La ciudadanía podrá presentar quejas sobre estos sistemas y recibir explicaciones sobre decisiones basadas en IA de alto riesgo que afecten a sus derechos.
  • De riesgo inaceptable porque se consideren una clara amenaza a los derechos fundamentales de las personas, como aquellas que manipulen el comportamiento humano para eludir el libre albedrío, juguetes que fomenten comportamientos peligrosos, sistemas de puntuación social, vigilancia policial predictiva o algunos usos biométricos como para el trabajo o vigilancia. Estas IA serán prohibidas.

Estas son las aplicaciones prohibidas o muy reguladas de la IA

Mención especial merecen esas aplicaciones de la inteligencia artificial que constituyen una amenaza para los derechos, la ciudadanía y la democracia, cuya consecuencia implica su prohibición:

  • Sistemas de categorización biométrica que utilizan características sensibles (como puede ser credo, religión, orientación sexual o raza).
  • Sistemas de extracción para bases de datos captando información indiscriminadamente a través de internet, TV o CCTV.
  • Reconocimiento de emociones en el lugar de trabajo y en instituciones educativas.
  • Social scoring, o lo que es lo mismo, la puntuación social basada en comportamiento social o características personales.
  • Sistemas de IA que manipulan el comportamiento humano para alterar su libre voluntad.
  • Sistemas de IA que explotan las vulnerabilidades humanas, por ejemplo, la edad, discapacidad, situación social o económica.

La excepción de los sistemas de identificación biométrica. Ojo porque la identificación biométrica es un tema peliagudo ya que no está totalmente prohibida:  podrá usarse con fines policiales previa autorización judicial y para una serie de delitos claramente estipulados. Así, se emplearía incluso en tiempo real para búsqueda selectiva de una persona sospechosa o condenada,  víctimas (secuestro, trata, explotación sexual) o amenaza terrorista, entre otros casos.

¿Qué parte de la ley aplica a ChatGPT y similares? Aquellos sistemas de inteligencia artificial de propósito general tendrán que cumplir criterios de transparencia anteriormente mencionados, pero también la elaboración de documentación técnica, el cumplimiento de la ley de derechos de autor de la UE y la difusión de resúmenes detallados sobre el contenido utilizado para la formación.

¿Qué pasa si no se cumple con la ley?

Como recoge la nota de prensa de este acuerdo provisional de la ley, el no cumplimiento de estas normas puede traducirse en multas que van desde 7,5 millones o el 1,5% del volumen de negocios hasta los 35 millones de euros o el 7% del volumen, en función del tipo de infracción cometida y el tamaño de la empresa.

¿Cuándo entrará esta ley en vigor?

Este acuerdo provisional no deja de ser un paso más, un hito cumplido a un largo recorrido que lleva más de dos años en el horno y al que todavía le queda. La IA Act comenzó a fraguarse en la primavera de 2021, como recordó ayer Ursula Von der Leyen.

Después, los estados miembros y el Parlamento Europeo deberá ratificar el texto final antes de que entre en vigor. Este proceso previsiblemente demorará la entrada en vigor de la ley hasta previsiblemente 2026, aunque algunas de estas secciones estarán operativas antes.

Portada | Jernej Furman | Tingey Injury Law Firm vía Xataka

En Genbeta | La controversia en la regulación de la IA: los creadores piden regulación a los gobiernos pero estos no saben qué está por llegar

Ver todos los comentarios en https://www.genbeta.com

VER 2 Comentarios

Portada de Genbeta