La policía de Reino Unido quiere usar inteligencia artificial para predecir el riesgo de que alguien cometa un crimen

La policía de Reino Unido quiere usar inteligencia artificial para predecir el riesgo de que alguien cometa un crimen
8 comentarios Facebook Twitter Flipboard E-mail

Las autoridades británicas quieren predecir los crímenes violentos antes de que sucedan, para ello están trabajando en un proyecto que combina el uso de inteligencia artificial con estadísticas que intentará medir el riesgo de que alguien cometa o sea víctima de un crimen violento.

Según reporta New Scientist, el sistema se llama "Solución Nacional de Análisis de Datos" (NDAS), y la idea es que este sea capaz de marcar a las personas antes de que el crimen suceda para ofrecer "intervenciones" que logren evitar el comportamiento criminal.

El sistema obtiene información de las bases de datos de la policía nacional y local, hasta ahora han recopilado más de un terabyte de datos, incluyendo reportes de crímenes cometidos y de unas 5 millones de personas identificables.

NDAS tiene 1400 indicadores que pueden ayudarle a predecir si alguien cometerá un crimen, cosas como cuántas veces alguien ha cometido un crimen en el pasado, o cuántas personas cercanas han cometido crímenes. Aquellos que sean marcados por el sistema como propensos a actos violentos recibirán un "puntaje de riesgo".

Un vistazo a…
Cómo mejorar la SEGURIDAD EN INTERNET: VPN, DNS y páginas con HTTPS

Sin arrestos preventivos, solo asesoramiento

Minority Report

Si todo esto te suena como el argumento de Minority Report, es porque se parece bastante en el concepto. Lo que aún está en discusión es exactamente qué pasará cuando estos individuos de riesgo alto a cometer un crimen sean identificados.

Iain Donnelly, el policía líder del proyecto, explicó que la intención no es arrestar a nadie preventivamente, sino en cambio ofrecer soporte a través de los trabajadores sociales y de salud locales.

Por ejemplo, podían ofrecer asesoramiento aun individuo con historial de problemas de salud mental si el sistema los marca con alta probabilidad de cometer un crimen violento, y las potenciales víctimas también podrían ser contactadas por servicios sociales.

El departamento de policía de West Midlands es el encargado del proyecto de prueba y se espera que tengan un prototipo para marzo de 2019, aunque ya hay otros ocho departamentos de policía involucrados, y esperan expandirse a todo Reino Unido.

Los problemas éticos y los prejuicios de la IA

Minority Report 1

Si algo sabemos es que los algoritmos que controlan nuestras vidas son tan injustos como nosotros mismos, las inteligencias artificiales tiene prejuicios porque aprenden de los datos que se les inyectan, y los datos del mundo en el que vivimos están llenos de prejuicios.

Este sistema será supervisado por la Oficina del Comisionado de Información, el organismo de protección de datos de Reino Unido que se encargará de que NDAS cumpla con las regulaciones de privacidad. Sin embargo, ya el proyecto ha sido criticado por los problemas éticos que supone.

Buenas intenciones o no, el sistema se arriesga a marcar a personas como potenciales criminales incluso si nunca han cometido un crimen

Un equipo del Instituto Alan Turing en Londres se cuestiona si es útil para el bienestar público intervenir cuando un individuo ni siquiera ha cometido un crimen solo porque probablemente pueda cometerlo en el futuro. Aunque el programa tenga buenas intenciones parece ignorar los problemas de las predicciones inexactas.

Además está el hecho de que basar las predicciones en historiales de arrestos pasados trae el riesgo de limitar las predicciones a ciertos lugares y reforzar los prejuicios del sistema. En muchos casos los arrestos se correlacionan con el lugar donde se despliega la policía y no con el crimen, lo que tiende a afectar de manera desproporcionada a las personas de color y a los residentes de los barrios pobres.

Comentarios cerrados
Inicio