Ningún dron con IA ha matado a su operador… y según EE.UU., ni siquiera existe tal dron. En cualquier caso, el problema es otro

Drone
1 comentario Facebook Twitter Flipboard E-mail

"Un dron militar de EEUU controlado por Inteligencia Artificial 'aniquila' a su operador". "Una arma autónoma 'mata' a su jefe humano por ser un obstáculo en una simulación". Estos son algunos de los titulares que podemos leer hoy en medios españoles sobre un supuesto incidente sobre IA aplicada al armamento militar revelado en las últimas horas.

¿En resumen? La IA de un dron estadounidense habría 'matado' a su operador humano cuando éste le dio órdenes de renunciar a su objetivo preestablecido (al fin y al cabo, la orden violaba el objetivo). Cuando se la reentrenó para dejarle claro que estaba mal matar a su operador, la IA optó por destruir la torre de comunicaciones que usaba para hacerle llegar las órdenes.

Las Fuerzas Aéreas de los EE. UU. (USAF), sin embargo, han negado que tal simulación haya tenido lugar.

Un vistazo a…
ZAO, la APP MÓVIL china que a través de DEEPFAKE te convierte en DICAPRIO en SEGUNDOS

¿Qué dicen que ha pasado?

El coronel Tucker Hamilton, jefe de pruebas y operaciones con IA de la USAF (que ya dirigió el desarrollo de los sistemas automatizados anti-colisiones del F-16) había revelado dicho dato durante una 'Cumbre de Capacidades Aéreas y Espaciales para el Combate del Futuro' celebrada el 24-24 de mayo en Londres.

Hasta ayer, cuando la desveló 'Vice', esa información no había llegado a los medios. Y, cuando lo ha hecho, ha sido con notable tremendismo (algunos medios han jugado, incluso, con dar a entender en el titular que había muerto alguien de verdad).

The Guardian dejaba clara la naturaleza simulada del supuesto experimento: de alguna forma, la 'IA' del dron se encontraba en un equivalente a Matrix (creía estar operando en el mundo físico sin ser así) y el operador humano venía a ser un personaje de un videojuego.

Sin embargo, incluso así vista, la noticia era grave: revelaba lo que era capaz de hacer la IA, aunque no hubiera llegado a hacerlo y, desde luego, matar a su supervisor porque le impedía llevar a cabo sus instrucciones originarias…

—es la clase de 'cortocircuito' que todos tememos cuando oímos hablar a Sam Altman de lo que podría "salir mal" con la IA, y tiene paralelismos con las IAs distópicas de ficción como Skynet, HAL 9000 o WOPR (de 'Juegos de guerra').

Desmentidos

"El Departamento de la Fuerza Aérea no ha realizado ninguna simulación de drones con IA y sigue comprometido con el uso ético y responsable de esa tecnología", afirmó Anne Stefanek, portavoz de la Fuerza Aérea. "Parece que los comentarios del coronel, que eran meramente anecdóticos, han sido sacados de contexto".

Por supuesto, basta con que el Ejército estadounidense (o cualquier otro, vaya) desmienta un experimento fallido para muchos se convenzan de la realidad de dicho experimento.

Ya pasó hace un año cuando Google negó que su IA LaMDA se considerase un ente consciente y sensible, desmintiendo así las declaraciones de uno de sus ingenieros. Siendo LaMDA el modelo de lenguaje detrás de Google Bard, lo cierto es que a estas alturas no parece que el ingeniero estuviese siendo muy preciso en sus descripciones.

El problema es el error humano y la incomprensibilidad de la IA

No hace falta que entre en juego la inteligencia artificial para que la automatización de un sistema armamentístico ponga en peligro la supervivencia de la especie humana: casi lo logra en 1983 durante el Incidente del Equinoccio de Otoño…

…donde sólo un teniente coronel soviético que violó conscientemente su protocolo (y fue castigado por ello), evitó que la URSS desatara el apocalipsis nuclear por un 'falso positivo' de uno de sus satélites de alerta temprana.

Mientras el uso de armas esté sujeto a protocolos y órdenes defectuosos, los peligros de destrucción existen, sea cual sea la tecnología de la que hablemos. Así que, incluso de haber ocurrido lo que decían los primeros titulares, lo relevante no es tanto qué ha hecho una IA… como dilucidar si lo ha hecho por un error de diseño o porque esa es su 'naturaleza'.

Hamilton decía, en una entrevista realizada el año pasado, Hamilton afirmaba que "necesitamos desarrollar formas de hacer que la IA sea más sólida, así como ser más conscientes sobre por qué el código de software está tomando ciertas decisiones: lo que llamamos explicabilidad de IA". El gran problema de la IA es, de hecho, que tiene mucho de 'caja negra'.

Imagen | Generada mediante IA

En Genbeta | La meta de este chatbot es destruir la Humanidad y va por buen camino: ya ha descubierto las armas nucleares con la ayuda de GPT-4

Comentarios cerrados
Inicio