El uso de enjambres de "robots asesinos" con IA en la guerra podrían suponer el fin de la humanidad

Un militar lanzando un dron

Reuters

  • Las principales potencias del mundo, están desarrollando armamento no tripulado gestionado directamente por inteligencia artificial sin supervisión humana. 
  • Estos enjambres de "robots asesinos" por IA podrían augurar un futuro catastrófico para la humanidad. 

Las guerras en Ucrania y Gaza han dado lugar a las primeras versiones de drones equivalentes a "robots asesinos" ya han llegado al campo de batalla y se han revelado como armas devastadoras. Ahora bien, de momento están bajo control humano

Sí, si la situación cambia, esto podría ser desastroso y lo cierto es que es una situación que podría darse en un futuro debido a la fuerte inversión en IA y armamento robotizado en el que están inmersos las potencias de todo el mundo. 

Ya hay muchos ejemplos: la Fuerza Aérea de EEUU está desarrollando su "aeronave de combate colaborativa", un vehículo aéreo no tripulado, así como drones submarinos. China, Rusia, Australia e Israel también están trabajando en este tipo de armamento para los campos de batalla del futuro.

La aparición de estas máquinas de matar han generado mucha preocupación y controversia en todo el globo y muchos países buscan una prohibición total de equipos autómatas y que solo puedan funcionar bajo condiciones supervisadas por humanos. 

¿A qué se debe? Pues principalmente a que sin la supervisión humana podrían tener "vida propia" y actuar bajo sus propios criterios. Ya sea comunicarse entre sí sin intervención humana o idear sus propias tácticas para derrotar a un enemigo o algo completamente diferente. 

Este tipo de pensamiento grupal impulsado por computadora, denominado "comportamiento emergente" por los científicos informáticos, abre una serie de peligros que aún no están siendo considerados por los funcionarios en Ginebra, Washington o en la ONU.

Ahora mismo, la mayoría del armamento autónomo que está siendo desarrollado por el ejército estadounidense será no tripulado, pero estarán diseñadas para operar en conjunto con sus contrapartes tripuladas. 

Es decir, aunque estas máquinas podrían tener cierta capacidad para comunicarse ente sí, serán parte de un equipo de combate en red cuya misión será dictada y supervisada por comandantes humanos. 

Cuando los enjambres eligen su propio camino

¿El problema? Que algunos estrategas estadounidenses están defendiendo un enfoque alternativo para el uso de armamento autónomo en el que no estarían bajo mando humano, sino que serían miembros iguales de enjambres de robots autodirigidos, apuntan desde Salon.

Esto provocaría que decenas o incluso cientos de UAVs, USVs o UGVs con IA podrían compartir datos sobre las condiciones del campo de batalla y cambiar sus tácticas de combate según lo considere necesario la mente colmena. 

"Las tecnologías robóticas emergentes permitirán a las fuerzas del futuro luchar como un enjambre, con mayor masa, coordinación, inteligencia y velocidad que las fuerzas en red de hoy", predijo Paul Scharre, un entusiasta temprano del concepto, en un informe de 2014 para el Centro para una Nueva Seguridad Americana. 

"Los sistemas autónomos en red y cooperativos", escribió entonces, "serán capaces de un verdadero enjambre: comportamiento cooperativo entre elementos distribuidos que da lugar a un todo coherente e inteligente".

La completa realización del concepto de enjambre requeriría algoritmos avanzados que permitan a los sistemas de combate autónomos comunicarse entre sí y "votar" sobre los modos de ataque preferidos.

Esto, señaló, implicaría crear software capaz de imitar el comportamiento de hormigas, abejas, lobos y otras criaturas que exhiben un comportamiento de "enjambre" en la naturaleza. 

El padrino de la IA cree que esta tecnología podría tomar el control de la humanidad en el futuro

"Así como los lobos en una manada presentan a su enemigo una borrosa serie de amenazas en constante cambio desde todas las direcciones, los vehículos no tripulados que pueden coordinar maniobras y ataques podrían ser significativamente más efectivos que los sistemas no coordinados que operan en masa", apuntó.

En su momento, en 2014, la tecnología para hacer posible este comportamiento estaba todavía en pañales, pero a día de hoy es algo que podría crearse sin problemas

Además, ese año DARPA puso en marcha su programa "Mosaico", una serie de proyectos destinados a perfeccionar los algoritmos y otras tecnologías necesarias para coordinar las actividades de sistemas de combate tripulados y no tripulados en futuros combates de alta intensidad con Rusia y/o China.

"Aplicando la gran flexibilidad del concepto de mosaico a la guerra", explicó Dan Patt, subdirector de la Oficina de Tecnología Estratégica de DARPA, "sistemas menos costosos y menos complejos pueden vincularse de muchas maneras para crear efectos interconectados deseados adaptados a cualquier escenario". 

"Las partes individuales de un mosaico son dispensables, pero juntas son invaluables por cómo contribuyen al conjunto", añadió.

Este concepto de guerra sustenta la nueva estrategia "Replicator" anunciada por la Subsecretaria de Defensa Kathleen Hicks el verano pasado. 

"Replicator está destinado a ayudarnos a superar la mayor ventaja de [China], que es la masa. Más barcos. Más misiles. Más personas", dijo a funcionarios de la industria armamentística en agosto de 2023. 

"Para mantenernos adelante, vamos a crear un nuevo estado del arte... Contrarrestaremos la masa del ELN con una masa propia, pero la nuestra será más difícil de planificar, más difícil de alcanzar, más difícil de vencer".

Actualmente, el Departamento de Defensa está buscando propuestas de contratistas de defensa tradicionales como Boeing y Raytheon, así como de nuevas empresas de IA como Anduril y Shield IA. 

Ahora bien, el impulso principal está en la producción rápida de sistemas más pequeños y menos complejos, como el dron de ataque Switchblade de AeroVironment, que ahora es utilizado por tropas ucranianas para eliminar tanques rusos y vehículos blindados detrás de las líneas enemigas.

El Pentágono, por su parte, está solicitando a nuevas empresas tecnológicas que desarrollen el software necesario para facilitar la comunicación y coordinación entre unidades robóticas y sus plataformas asociadas. 

Para facilitar esto, la Fuerza Aérea ha solicitado al Congreso 50 millones de dólares para poner en marcha el proyecto VENOM. Un programa que convertirá aeronaves de combate existentes en UAVs gobernados por IA que está pensado para probar software autónomo avanzado en operaciones multidrones. 

En otras palabras, queda poco para que se empiecen a desplegar enjambres de sistemas de armas autónomas con algoritmos que les permitan comunicarse entre sí y elegir sus propias maniobras de combate. Esto les permitiría emplear tácticas no convencionales, nunca concebidas, e imposibles de replicar, por pilotos y comandantes humanos. 

Esto daría lugar a lo que los expertos en informática denominan como comportamiento emergente.

"Un comportamiento emergente se puede describir como un proceso mediante el cual surgen patrones más grandes a través de interacciones entre entidades más pequeñas o más simples que ellas mismas no exhiben tales propiedades", explican desde ScienceDirect

En términos militares, esto significa que un enjambre de armas autónomas podrían adoptar tácticas de combate que de manera individual podrían realizar, logrando, posiblemente, resultados asombrosos en el campo de batalla. 

Ahora bien, esto podría acabar en actos no deseados e imprevistos por los comandantes humanos, como la destrucción de una infraestructura civil crítica o instalaciones de comunicaciones utilizadas para operaciones tanto nucleares como convencionales.

En este punto, por supuesto, es casi imposible predecir qué elegiría hacer una mente grupal alienígena si estuviera armada con múltiples armas y desconectada de la supervisión humana. 

Supuestamente, dichos sistemas estarían equipados con mecanismos de seguridad que requerirían que regresaran a la base si se perdiera la comunicación con sus supervisores humanos, ya sea debido a interferencias enemigas u otras razones. 

Sin embargo, ¿quién sabe cómo funcionarían tales máquinas pensantes en condiciones del mundo real o si, de hecho, la mente grupal sería capaz de anular tales directivas y actuar por sí misma?

¿Qué pasaría entonces? ¿Podrían optar por seguir luchando más allá de sus límites preprogramados, provocando una escalada no deseada, incluso, concebiblemente, de naturaleza nuclear? ¿O podrían optar por detener sus ataques contra las fuerzas enemigas e interferir en las operaciones de las amigas? 

Estas preguntas se están abordando como punto esencial en la "Declaración Política sobre el Uso Militar Responsable de la Inteligencia Artificial y la Autonomía" emitida por el Departamento de Estado en febrero de 2023 y muchos creen que la IA puede ser utilizada sin caer en riesgos futuros

Sin embargo, hay otros que piensan lo contrario y tienen claro que puede ser peligroso utilizar la IA en la guerra.

"El uso global no controlado de tales sistemas potencialmente conlleva el riesgo de escalada de conflictos no deseados e inestabilidad de crisis", señala la Comisión Nacional de Seguridad en Inteligencia Artificial.

Esto podría ocurrir por varias razones, incluida "la complejidad desafiante y no probada de la interacción entre sistemas de armas habilitados para IA y autónomos en el campo de batalla". Dado ese peligro, concluye el informe, "los países deben tomar medidas que se centren en reducir los riesgos asociados con los sistemas de armas habilitados para IA y autónomos".

Incluso si se carece de las habilidades matemáticas para entender el comportamiento emergente en la IA, debería ser obvio que la humanidad podría enfrentar un riesgo significativo para su existencia si las máquinas asesinas adquieren la capacidad de pensar por sí mismas

Dado que están siendo diseñadas para luchar y matar, es probable que si toman conciencia propia simplemente elijan llevar a cabo estas instrucciones de manera independiente y extrema. De ser así, puede que no haya nadie para escribir un RIP en la lápida de la humanidad

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.