Estados Unidos y Rusia paran las negociaciones sobre un tratado para prohibir los robots asesinos

Estados Unidos y Rusia paran las negociaciones sobre un tratado para prohibir los robots asesinos
1 comentario Facebook Twitter Flipboard E-mail

Los tiempos cambian, la tecnología cambia y la guerra cambia. A lo largo de los últimos tiempos, hemos visto cómo la potencia de fuego de los diferentes cuerpos militares se ha visto potenciada por la aparición de dispositivos autónomos. Conocidos como LAWs (Lethal Autonomous Weapons, o Armas Letales Autónomas), estas nuevas "herramientas" representan todo un desafío legal, moral y ético, que parece ir para largo.

Un grupo de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales (CCA) se reunió esta semana en Ginebra para discutir sobre la prohibición formal de armas totalmente autónomas controladas por IA. Si bien algunos países hicieron especial inciso en la necesidad de una regulación fuerte, instando a la ONU a llevar acabo una negociación formal para el próximo año, Rusia y Estados Unidos, apoyados principalmente por Corea del Sur, Israel y Australia, han bloqueado dicha negociación.

En la agenda desde 2013 y sin demasiados avances

Armas Letales Autónomas

Las Naciones Unidas introdujeron este tema en su agenda a finales de 2013, pero los avances al respecto han sido ínfimos. De hecho, a día de hoy, cinco años después, en 2018, todavía no se podido establecer una definición en firme para las LAWs.

Hasta el momento, las LAWs, aun siendo completamente autónomas (es decir, no hay una persona detrás controlando sus movimientos como ocurre en algunos drones), requieren de la orden de un humano para abrir fuego contra un enemigo, salvo en algunas circunstancias de carácter defensivo. Esto, en palabras de los miembros de la campaña Stop Killer Robots (SKR), "plantearía un desafío fundamental en la protección de los civiles y al cumplimiento del derecho internacional humanitario y de los derechos humanos".

Hasta el momento, las LAWs requieren de la orden de un humano para abrir fuego contra un enemigo, salvo en algunas circunstancias de carácter defensivo

Asimismo, afirman que "permitir que las decisiones de vida o muerte se tomen por máquinas cruza una línea moral fundamental" debido a la falta de juicio y ética, una "cualidad necesaria" para distinguir entre civiles y soldados, para tomar decisiones complejas y para medir la proporcionalidad de un ataque. "Como resultado, las armas completamente autónomas no cumplirían con los requisitos de las leyes de la guerra", concluyen desde SKR.

Por otro lado, de igual manera que con los coches autónomos, todavía no existe una legislación oficial que diga quién tiene la culpa ante una falta. Si un "robot asesino" mata a un civil por un fallo informático, ¿de quién es la culpa? ¿Del ordenador, del comandante, del programador, del fabricante, del Estado?

La prohibición de las LAWs, en el punto de mira

La campaña Stop Killer Robots tomó forma en 2013, y a día de hoy engloba a 75 ONGs de 32 países. Sin embargo, en palabras de su coordinadora, "es decepcionante que una pequeña minoría de grandes potencias militares pueda contener la voluntad de la mayoría". Son 26 los países que, según SKR, están a favor de la prohibición total de las LAWs.

En 2015 más de 1.000 expertos en IA firmaron una carta advirtiendo de la amenaza de este tipo de avances. Entre los firmantes se encontraban Stephen Hawkings, Elon Musk, Steve Wozniak, Noam Chomsky y Demis Hassabis, cofundador del proyecto Google DeepMind. La carta se presentó en la XXIV International Joint Conference on Artificial Intelligence, que tuvo lugar en Buenos Aires.

Por otro lado, los que están a favor de este tipo de sistemas autónomos afirman que los soldados pueden estar más protegidos, llegando incluso a no tener que penetrar en terreo enemigo, por no hablar del ahorro económico que supone con respecto a la "guerra tradicional".

Un enjambre de 30 drones autónomos vale medio millón de dólares, la mitad que un misil antibuque Harpoon, al que podrían sustituir

A finales de 2016, el Departamento de Defensa de Estados Unidos liberó un enjambre de 103 drones cuyo tamaño apenas superaba el de un pájaro. Estos se movían, cambiaban de formación y coordinaban de forma autónoma, sin intervención humana de ningún tipo. Estos drones, además de poder repararse con piezas impresas en 3D, son significativamente más baratos. Según la Marina estadounidense, un enjambre de 30 drones autónomos vale medio millón de dólares, la mitad que un misil antibuque Harpoon, al que podrían sustituir.

Sin embargo, para los que están en contra de este tipo de armas, "remplazar las tropas humanas con máquinas podría facilitar la decisión de ir a la guerra, lo que trasladaría la carga del conflicto armado a los civiles".

Las negociaciones se encrudecen y las posturas se hacen cada vez más inamovibles. De acuerdo al experto en armas Marcel Dickow, el camino hacia un tratado podría dilatarse, lo que llevaría a los países en contra a lanzar un proceso independiente "cuyo impacto sería muy limitado". "No se necesita una bola de cristal para predecir que Estados Unidos, y probablemente también Rusia, China, Israel y el Reino Unido, no formarán parte de eso", afirma Dickow. Sin embargo, los países volverán a reunirse en noviembre para continuar (o no) con la negociación.

En Genbeta | Un grupo de investigadores crean un sistema para detectar bombas y armas vía Wi-Fi

Comentarios cerrados
Inicio