Así es la regulación europea que busca lograr una inteligencia artificial "digna de confianza": pionera y basada en los riesgos

Así es la regulación europea que busca lograr una inteligencia artificial "digna de confianza": pionera y basada en los riesgos

Sin comentarios Facebook Twitter Flipboard E-mail
Así es la regulación europea que busca lograr una inteligencia artificial "digna de confianza": pionera y basada en los riesgos

La Comisión Europea ha propuesto este miércoles nuevas normas destinadas a regular la inteligencia artificial en la Unión Europea, medidas que conocimos parcialmente por una filtración. Una legislación pionera que busca, dicen, "convertir a Europa en el centro mundial de una inteligencia artificial digna de confianza". La idea es que garantice la seguridad y los derechos fundamentales de la ciudadanía y las empresas.

Este es el primer marco jurídico sobre la IA que se lleva adelante en el mundo y no llega en solitario. Junto a él, la Comisión también busca regular maquinaria y robots y, a su vez, reforzar la adopción, inversión e innovación en materia de inteligencia artificial en los países miembros.

Una legislación sobre inteligencia artificial basada en los potenciales riesgos que contempla desde prohibiciones totales a la no intervención

Uno de los puntos más interesantes de esta regulación de la inteligencia artificial es que se basa en los potenciales riesgos del uso de la tecnología y, por ende, como ha explicado la comisaria europea de Competencia, Margrethe Vestager, "intervendrán cuando sea estrictamente necesario, esto es, cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la Unión Europea".

El nuevo Reglamento sobre la IA establece cuatro niveles de riesgo y diversas obligaciones

Artificial Intelligence 2167835 1920

La idea es que las nuevas normas planteadas para el conjunto de la Unión Europea se apliquen directamente y de la misma manera en todos los Estados, explican desde la Comisión Europea, "sobre la base de una definición de IA a prueba de futuro". Es decir, con vistas a que no se quede desactualizada con el avance de los años y/o de las tecnologías.

Y lo que es más importante: se basa en el riesgo. Concretamente, en cuatro niveles de riesgo. El más alto de todos ellos es el "riesgo inaceptable", el cual implicará la prohibición de los sistemas de IA que se consideren "una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las persona". Aquellos que, por ejemplo, manipulen el comportamiento humano para eludir la voluntad de las personas o sistemas de "puntuación social" gubernamentales.

Serán prohibidos los sistemas de inteligencia artificial que se consideren "una clara amenaza para la seguridad, los medios de subsistencia y los derechos de las persona", como los sistemas de "puntuación social" gubernamentales

El segundo nivel de riesgo es el de "alto riesgo", que abarca los sistemas de inteligencia artificial que se empleen en diferentes ámbitos sensibles: infraestructuras críticas, formación educativa o profesional, componentes de seguridad de los productos, empleo, gestión de trabajadores y acceso al trabajo por cuenta propia, servicios públicos y privados esenciales, aplicación de las leyes, gestión de la migración, el asilo y el control de las fronteras y administración de justicia y procesos democráticos.

Por la sensibilidad de estos entornos, antes de poder comercializarse una tecnología de IA catalogada, esta deberá contar obligatoriamente con sistemas adecuados de evaluación y mitigación de riesgos, alta calidad de los conjuntos de datos que alimentan el sistema, registro de la actividad para garantizar la trazabilidad de los resultados, documentación detallada, información clara y adecuada de cara a las personas usuarias, medidas apropiadas de supervisión humana para minimizar el riesgo, así como un alto nivel de solidez, seguridad y precisión.

El uso de sistemas de identificación biométrica remota, como el reconocimiento facial, estará prohibido en espacios de acceso público con fines policiales

En este grado de riesgo se ubican sobre todo los sistemas de identificación biométrica remota. Es decir, el reconocimiento facial, el cual llevaba tiempo en el punto de mira de la UE. En principio, dicen desde la Comisión Europea, "su uso en directo en espacios de acceso público con fines policiales está prohibido". Aunque habrá excepciones porque podrán utilizarse para buscar a menores desparecidos, prevenir una amenaza terrorista concreta e inminente o detectar, localizar, identificar o enjuiciar a un autor o sospechoso de un delito grave. Todos estos usos deberán ser autorizados judicialmente o por un organismo independiente con "límites adecuados en el tiempo, el alcance geográfico y las bases de datos buscadas".

Monitoring 1305045 1920

Todo ello no contenta del todo a organizaciones como EDRi, organización que dice defender los derechos digitales europeos y que asegura que "la prohibición de la 'identificación biométrica remota' se aplica solo a las fuerzas del orden, tiene grandes excepciones y es limitada". Consideran que esta propuesta "no va lo suficientemente lejos" al no prohibir la vigilancia biométrica masiva. También desde otras organizaciones como Access Now se denuncian lagunas importantes y se pide la prohibición también para la vigilancia predictiva o el reconocimiento facial post-hoc.

En España, recientemente, más de 70 investigadores y académicos piden al Gobierno una moratoria en el uso del reconocimiento facial hasta su regulación. Recurrentemente ha suscitado críticas y dudas el planteamiento de su uso por parte de empresas, como Mercado o Renfe, así como de la Guardia Civil. Según la Secretaría de Estado de Digitalización e Inteligencia artificial, esta propuesta europea recoge la postura española.

El Reglamento de Inteligencia Artificial no intervendrá en el nivel de "riesgo mínimo o nulo" en el que, dicen, estarían "la inmensa mayoría de los sistemas de IA"

Siguiendo con los niveles de riesgo, existe también el "riesgo limitado", que comprende sistemas que deberán tener ciertas obligaciones de transparencia como los robots conversacionales que deberán informar a los usuarios de que están interactuando con una máquina. En el último nivel, "riesgo mínimo o nulo", entraría "la inmensa mayoría de los sistemas de IA", el Reglamento de IA no interviene.

¿Y quiénes serán los policías? Pues según la propuesta de la Comisión, las autoridades nacionales de vigilancia del mercado podrían ser las que controlen nuevas normas. No obstante, también se plantea la creación de un Comité Europeo de Inteligencia Artificial que tendrá como misión facilitar la aplicación e impulsar la creación de normas en esta materia.

Actualizando el plan coordinado sobre la IA y la regulación sobre maquinaria y robots

Robot 2791671 1920

El plan europeo coordinado sobre la IA publicado inicialmente en 2018, "facilitó una gran variedad de estrategias nacionales y fondos de la UE para asociaciones público-privadas y redes de investigación e innovación", según la Comisión Europea. Por eso, tres años después, recibe una "actualización exhaustiva" para proponer acciones que estén en consonancia con la Estrategia Europea sobre la IA, el Pacto Verde Europeo y los nuevos retos planteados por la pandemia.

La idea es que este plan ahora emplee la financiación asignada con cargo a los programas Europa Digital y Horizonte Europa, así como al Mecanismo de Recuperación y Resiliencia, que prevé un objetivo de gasto digital del 20 %, y a la Política de Cohesión. Con ello, se pretende crear las condiciones para que Europa sea competitiva a nivel mundial en la innovación, el desarrollo y el uso de estas tecnologías en todos los niveles.

El Parlamento Europeo y los Estados miembros tendrán que adoptar estas propuestas de la Comisión mediante procedimiento legislativo ordinario

Por último, la Comisión Europea también ha presentado un nuevo Reglamento sobre máquinas que, de nuevo, aseguran que busca garantizar "la seguridad de los usuarios y consumidores", al tiempo que fomentar la innovación. Es también una apuesta a punto de la anterior normativa y un complemento a la legislación sobre inteligencia artificial dado que su misión es garantizar la integración segura de los sistemas de IA en la maquinaria en general.

Este pionero marco jurídico sobre la IA, el primero mundial, y el resto de normas son propuestas de la Comisión y, como tal, deberán ser adoptadas por el Parlamento Europeo y los Estados miembros a través del procedimiento legislativo ordinario. Cuando este hecho se produzca, y de acuerdo con los plazos que se marquen, los reglamentos serán aplicables en el conjunto de la Unión Europea.

Comentarios cerrados
Inicio