Más de 70 investigadores y académicos piden al Gobierno una moratoria en el uso del reconocimiento facial hasta su regulación

Más de 70 investigadores y académicos piden al Gobierno una moratoria en el uso del reconocimiento facial hasta su regulación
1 comentario Facebook Twitter Flipboard E-mail

Una setentena de profesores y especialistas en ciencias de la computación ética, diseño y filosofía han firmado una carta dirigida al Gobierno de España en la que piden una comisión de investigación que estudie la necesidad de establecer una moratoria en el uso y la comercialización de sistemas de reconocimiento y análisis facial por parte de empresas pública y privadas.

Los firmantes solicitan este aplazamiento "hasta que las Cortes Generales y las instituciones legislativas europeas debatan cuáles, de qué manera, en qué condiciones, con qué garantías y con qué objetivos debe permitirse, si cabe, el uso de estos sistemas". ¿La razón? Las graves deficiencias y riesgos que presentan estos sistemas, aseguran.

"Están en juego cuestiones fundamentales de justicia social, dignidad humana, equidad, igualdad en el trato e inclusión"

El reconocimiento facial tiene "graves problemas"

Flat 3252983 1280

La carta firmada por profesores, catedráticos, investigadores y otros profesionales relacionados de uno u otro modo con la materia la motiva La preocupación que sienten en relación "con los potenciales efectos perniciosos que estos sistemas pueden tener sobre el bienestar, los intereses y las necesidades y derechos fundamentales de la población española". En su opinión, "están en juego cuestiones fundamentales de justicia social, dignidad humana, equidad, igualdad en el trato e inclusión".

El escrito presenta, a modo de resumen, una selección de los "graves problemas" que tienen los sistemas de reconocimiento y análisis de imágenes de personas y, por extensión, los algoritmos de aprendizaje automático que los sustentan computacionalmente.

La idea no es tanto que se regule la tecnología en sí misma, es reglamentar qué decisiones se toman gracias a su empleo

Los ejemplos del uso problemático de estas tecnologías van, explican, desde la asociación a una persona de una determinada característica o tendencia en base a estadísticas poblacionales a la vinculación de rasgos o características físicas de una persona con determinados supuestos pasando por la opacidad de los algoritmos en cuanto a las razones por las que una persona ha sido clasificada de una determinada manera. Estas y otras muestran son problemáticas y suponen un potencial peligro, expresan los firmantes.

Por todo ello, y con el caso del sistema de vigilancia de Renfe en mente, urgen al Ejecutivo a que intervenga de manera rápida "antes de que estos sistemas continúen expandiéndose y se conviertan en estándares de facto" y remarcan la necesidad de crear una comisión que investigue la necesidad de una moratoria que, en su opinión, resulta "prescindible y urgente".

"Sugerimos que esta comisión sea independiente y esté compuesta por científicos, juristas, expertos en ética e inteligencia artificial y por miembros de la sociedad civil, especialmente de aquellos colectivos que pueden verse prima facie afectados por estos sistemas", escriben. La idea no es tanto que se regule la tecnología en sí misma, es reglamentar qué decisiones se toman gracias a su empleo.

Sistemas de reconocimiento facial han demostrado ser poco fiables en la escena internacional, se ha advertido sobre su uso en la educación en España e IBM, Microsoft y Amazon han puesto en cuarentena su uso por parte de fuerzas policiales. "La tecnología puede aumentar la transparencia y ayudar a la policía a proteger a las comunidades, pero no debe promover la discriminación o la injusticia racial", defendieron desde IBM.

Comentarios cerrados
Inicio