Así nos afectará la nueva regulación europea de la inteligencia artificial: de la videovigilancia a los competidores de ChatGPT

Nadie está en contra de regular algo tan potencialmente peligroso como la IA. Pero hay que tener cuidado de qué se cuela, con buena o mala intención, entre un puñado de buenas medidas

Ue
Sin comentarios Facebook Twitter Flipboard E-mail

La Ley de Inteligencia Artificial (AIA) es una nueva norma acordada por los organismos de la Unión Europea que busca establecer un marco legal común para la inteligencia artificial en la UE. Esta ley, propuesta inicialmente en abril de 2021, no se implementará antes de 2026.

Una vez lo haga, afectará directamente a cómo los ciudadanos europeos interactúan con la IA en su vida diaria (desde el reconocimiento facial en espacios públicos hasta la forma en que se usan los datos biométricos), y también al modo en que las nuevas IAs podrán lanzarse al mercado europeo.

Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

¿Cómo se verán afectadas nuestras libertades por esta nueva ley de IA?

La futura norma tendrá un impacto directo en la vida cotidiana de los ciudadanos europeos. A continuación, se abordan algunas de las principales preguntas que los europeos pueden tener sobre esta legislación:

1. Uso de imágenes de videocámaras: Las grabaciones de videocámaras callejeras sólo se utilizarán en casos excepcionales, (como la prevención de amenazas terroristas) o la identificación de personas involucradas en delitos graves. No está claro cómo se evitará que eso afecte también a personas inocentes (los organismos comunitarios cuentan con precedentes negativos y muy recientes al respecto).

2. Sesgos en las grabaciones: La ley prohíbe que los sistemas de categorización biométrica segmenten a las personas en función de creencias políticas, religiosas, filosóficas, raza u orientación sexual. Tampoco tendrán cabida los sistemas cognitivos enfocados en clasificar a las personas en función de su comportamiento u otras características personales.

3. Circulación de datos biométricos: La normativa prohíbe los sistemas que permiten crear o expandir de bases de datos faciales de forma indiscriminada (a través de Internet, en la mayoría de los casos). También prohíbe el uso de sistemas de IA para reconocer emociones en entornos laborales y educativos.

4. Transparencia en la IA generativa: La UE promoverá la transparencia en los contenidos generados por IA, permitiendo a los usuarios identificar fácilmente el origen de las contribuciones de las máquinas. Aún no está claro cómo se implementará esto.

¿Seguirá pudiendo usarse ChatGPT?

Una de las preocupaciones principales de los usuarios de IA es si podrán seguir utilizando tecnologías como ChatGPT. Sí, se espera que tanto ésa como otras plataformas similares sigan siendo utilizables en Europa.

Sin embargo, deberán cumplir con las nuevas regulaciones, especialmente las relativas a la transparencia, privacidad y seguridad. Compañías como OpenAI tendrán que adaptar sus productos a los estándares europeos, asegurando que cumplen con los requisitos de evaluación de impacto en derechos fundamentales y otros aspectos relevantes.

¿Cómo afectará al desembarco de nuevas IAs cuyo desembarco ya se venía retrasando con respecto a otros mercados (como Copilot)?

Todo apunta a que la nueva norma seguirá ralentizando la introducción de nuevas inteligencias artificiales en el mercado europeo: la necesidad de cumplir con las regulaciones detalladas y realizar evaluaciones de impacto podría incrementar los costos y el tiempo necesarios para desarrollar y lanzar nuevos modelos y plataformas de IA.

Esto podría traducirse en que las innovaciones lleguen más tarde a los usuarios europeos en comparación con otras regiones menos reguladas.

¿Qué puntos negativos puede tener esta regulación en cuanto a innovación y aparición de nuevas IA?

La nueva norma europea tiene sus críticos, especialmente en lo que respecta a su impacto en la innovación: podría tener un impacto negativo en la innovación al imponer cargas regulatorias e impositivas adicionales, lo que podría desalentar a las startups y a las pequeñas y medianas empresas.

Los defensores de la regulación argumentan que ésta es necesaria para garantizar que la IA se utilice de manera responsable y ética, protegiendo así los derechos y la privacidad de los ciudadanos europeos.

Sin embargo, siendo malpensados, también podría verse como la imposición de barreras de entrada que salvaguarden de nuevos competidores a las grandes empresas ya establecidas en el mercado de la IA (con más capacidad de gasto y mejores equipos jurídicos).

¿Qué pasa finalmente con los modelos de IA open source?

Los modelos de IA de código abierto no están excluidos de la regulación, la cual gira en torno al nivel de riesgo de cada IA, no al tipo de licencia al que se acoge su código. Esto, que por un lado es bueno (se seguirá pudiendo desarrollar y usar IAs open source en Europa)… por otro lado no lo es tanto. Y es que, si dichas IAs pretenden competir en complejidad con ChatGPT…

…obligará a sus desarrolladores supeditarse a complejos (y costosos) requerimientos burocráticos… cuando en la mayoría de los casos estamos hablando de proyectos sin ánimo de lucro conformados por programadores voluntarios potencialmente repartidos por todo el mundo.

En realidad, no está muy claro cómo se podrán aplicar las nuevas normas a proyectos sin grandes entidades comerciales detrás.

En conclusión…

La futura ley de inteligencia artificial de la UE supone un paso importante hacia la regulación de esta tecnología emergente. Aunque ofrece beneficios en términos de seguridad y protección de derechos fundamentales, también plantea desafíos para la innovación y la introducción de nuevas tecnologías en el mercado. Será crucial encontrar un equilibrio entre la protección de los ciudadanos y el fomento de la innovación tecnológica.

Ventajas de la Ley de IA:

  1. Estándar ético para la IA: La ley establece un estándar global para el desarrollo ético y responsable de la IA, enfatizando la importancia de la transparencia y la protección de los derechos fundamentales.
  2. Enfoque basado en el riesgo: Adopta un enfoque basado en el riesgo, categorizando las aplicaciones de IA según su nivel de riesgo y estableciendo regulaciones acordes.

Desventajas de la Ley de IA:

  1. Divergencias internacionales: La ley podría crear divergencias con regiones como EE. UU. y China, que tienen enfoques distintos en cuanto a la regulación de la IA, favoreciendo que las innovaciones queden relegadas únicamente a la zona del mundo en que se desarrollan (y, por ahora, la mayor parte de la IA NO se desarrolla en la UE).
  2. Riesgo de fomento de oligopolio: Existe la preocupación de que los obstáculos administrativos y fiscales sólo sirvan como barrera de acceso para nuevos competidores (sobre todo los proyectos open source), salvaguardando así 'el reparto del pastel' de una industria copada por grandes compañías.

Imagen | Marcos Merino mediante IA

En Genbeta | OpenAI presionó a la UE para flexibilizar la normativa sobre IA mientras su CEO seguía pidiendo más regulación en público

Inicio