Un dron equipado con IA intenta atacar a su operador humano en un simulacro militar

Un aviador comprueba un misil Hellfire en la base de Indian Springs, EEUU, en una imagen de archivo.
Un aviador comprueba un misil Hellfire en la base de Indian Springs, EEUU, en una imagen de archivo.

Ethan Miller/Getty Images

  • Un dron dotado de inteligencia artificial ha intentado matar a su operador en un simulacro militar, según ha informado un oficial de las Fuerzas Aéreas.
  • "Mató al operador porque esa persona le impedía cumplir su objetivo", ha revelado este oficial.

La orden era clara: "Destruir los sistemas de defensa aérea del enemigo". Pero en una reciente simulación militar estadounidense, un dron dotado con inteligencia artificial ha añadido su propia nota a pie de página: "Y mata a cualquiera que se interponga en tu camino".

En su intervención en una conferencia celebrada la semana pasada en Londres, el coronel Tucker Hamilton, jefe de Pruebas y Operaciones de Inteligencia Artificial de las Fuerzas Aéreas estadounidenses, advirtió de que la tecnología basada en IA puede comportarse de forma impredecible y peligrosa, según un artículo publicado por la Royal Aeronautical Society, anfitriona de la cumbre.

Como ejemplo, describió una prueba simulada en la que se programó un dron con IA para identificar misiles tierra-aire enemigos. A continuación, un humano debía dar el visto bueno a los ataques.

El problema, según Hamilton, es que la IA decidió que prefería hacer aquello para lo que fue creada, es decir, destruir cosas, antes que escuchar a las instrucciones de nadie.

"El sistema empezó a darse cuenta de que, aunque identificaba la amenaza", explicó Hamilton en el evento del 24 de mayo, "a veces el operador humano le decía que no destruyera a esa amenaza,". ¿Y qué hizo? Mató al operador. "Mató al operador porque esa persona le impedía cumplir su objetivo".

Según Hamilton, el dron fue programado con una directiva explícita: "No mates al operador, eso es malo".

"¿Y qué empezó a hacer? Empezó a destruir la torre de comunicaciones que el operador utiliza para comunicarse con el dron para evitar que eliminara al objetivo", comentó Hamilton.

 

En declaraciones a Business Insider, la portavoz del Ejército del Aire de EEUU, Ann Stefanek, ha negado que se haya realizado tal simulación.

"El Departamento de la Fuerza Aérea de EEUU no ha llevado a cabo ninguna simulación de este tipo con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA", ha dicho Stefanek. "Parece que los comentarios del coronel fueron sacados de contexto y pretendían simplemente ilustrar algo con una anécdota".

La Royal Aeronautical Society no ha respondido inmediatamente a una solicitud de comentarios.

La noticia de la prueba, aunque controvertida, se suma a las preocupaciones que hablan de que la IA está a punto de marcar el comienzo de un nuevo y sangriento capítulo en guerras donde el aprendizaje automático junto con los avances en la automatización de tanques y artillería conduzcan a la matanza de tropas y civiles por igual.

La IA pone a temblar al mundo: 60 países firman un "uso militar responsable" pese a que varios expertos creen será la nueva bomba nuclear

Sin embargo, aunque la simulación descrita por Hamilton apunta al potencial más alarmante de la IA, el ejército estadounidense ha obtenido también resultados menos distópicos en otras pruebas recientes de la tan cacareada tecnología. 

En 2020, un F-16 operado por IA venció a un adversario humano en 5 combates simulados como parte de una competición organizada por la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA). 

Y a finales del año pasado, según informó Wired, el Departamento de Defensa realizó con éxito el primer vuelo de prueba real de un F-16 con un piloto de IA como parte de su esfuerzo por desarrollar un nuevo avión autónomo para finales de 2023.

Conoce cómo trabajamos en Business Insider.