La IA pone a temblar al mundo: 60 países firman un "uso militar responsable" pese a que varios expertos creen será la nueva bomba nuclear

Robot armado

Getty Images

  • Más de 60 países, entre ellos EEUU y China, firmaron la pasada semana un acuerdo para un "uso responsable" de la IA en el ámbito militar.
  • Este llega mientras se suceden las noticias sobre las capacidades de ChatGPT y mientras todo un ex consejero delegado de Google vaticina que la irrupción de esta tecnología en la guerra será lo que en su día supuso la bomba nuclear.

No hay duda de que da miedo. Al fin y al cabo, un temor infundado, por mucha publicidad que tenga, difícilmente puede reunir en una misma ciudad a representantes de cerca de 60 países en busca de una postura común.

Esto fue exactamente lo que pasó la semana pasada en La Haya, Países Bajos, ciudad que albergó la primera Cumbre Mundial sobre Inteligencia Artificial Responsable en el Ámbito Militar (REAIM, por sus siglas en inglés), en encuentro en el que participaron EEUU y China (Rusia no fue invitada y Ucrania no acudió) y que sirvió para que más de medio centenar de países acordaran "un uso responsable" de la IA en el ámbito militar.

¿Qué significa este "uso responsable de la IA en el ámbito militar"? Nadie lo sabe muy bien. Hay que recordar que desde hace casi 10 años la ONU celebra lo que se conoce como Convención sobre ciertas armas convencionales, un nombre eufemístico bajo el que se oculta un intento por parte de Naciones Unidas de limitar el uso de la IA con fuerza letal en la guerra.

Dicho de otra manera, lo que se busca es que los robots no tengan capacidad de matar o que, si la tienen, la decisión de a quién asesinar, cuándo y dónde no la tome nunca una máquina, sino un ser humano consciente de lo que esta está haciendo. 

Por ahora, todos los intentos de la ONU por limitar esta tecnología han sido poco menos que un fracaso rotundo. El temor a quedar en desventaja tecnológica con respecto al resto de potencias ha podido hasta ahora más que el temor a los robots asesinos, que EEUU lleva años utilizando por ejemplo bajo la forma de drones en zonas en conflicto en Oriente Medio.

 

Lo que ocurrió la semana pasada, sin embargo, bien podría ser un tímido primer paso en el sentido contrario. "Es una idea para la que ha llegado el momento", declaró el ministro holandés de Asuntos Exteriores, Wopke Hoekstra, a la prensa extranjera en vísperas del evento, según Reuters

En efecto, la explosión en popularidad de ChatGPT ha sacado a la palestra a la IA, una tecnología que ofrece cada día noticias que generan entre asombro e inquietud. Es por esto que, en opinión de Hoekstra, ha llegado el momento de mirar al problema a los ojos.

"Nos estamos adentrando en un campo que desconocemos, para el que no disponemos de directrices, normas, marcos ni acuerdos. Pero los necesitaremos más pronto que tarde", afirmó.

Finalmente, el encuentro, en el que Corea del Sur actuó también como anfitrión, contó con la participación de más de 2.000 panelistas y se saldó con una declaración no vinculante desde el punto de vista legal que firmaron todos los países asistentes menos Israel.

Esta alude que el uso de la IA militar debe atender "las obligaciones legales internacionales de un modo que no socave la seguridad, la estabilidad y la responsabilidad internacionales".

La subsecretaria de Estado estadounidense para el Control de Armamentos, Bonnie Jenkins, hizo un llamamiento en este mismo sentido. El representante de China, Jian Tan, por su parte, afirmó que los países deben "oponerse a buscar la ventaja militar absoluta y la hegemonía a través de la IA" y trabajar a través de las Naciones Unidas.

Pero también hubo tiempo, por otra parte, para subrayar las posibles ventajas de utilizar la IA en conflictos como el de Ucrania, donde esta tecnología está ayudando a rechazar a Rusia.

"Imaginemos que un misil alcanza un edificio de apartamentos. En una fracción de segundo, la IA puede detectar su impacto e indicar dónde podría haber supervivientes. Y lo que es aún más impresionante, la IA podría haber interceptado el misil en primer lugar", afirmó Hoekstra.

 

La IA será la nueva bomba nuclear

Hoekstra no es el único que ha visto la cara positiva al uso de la IA en la guerra en las últimas semanas. Eric Schmidt, antiguo consejero delegado de Google y hombre metido ahora de lleno en el negocio de la IA con uso militar, explicó hace una semana que esta tecnología cambiará la guerra tanto como lo hizo la bomba nuclear.

"Einstein escribió una carta a Roosevelt en los años 30 en la que le decía que esta nueva tecnología, las armas nucleares, podrían cambiar la guerra, y está claro que lo hizo. Yo diría que la autonomía [impulsada por la IA] y los sistemas descentralizados y distribuidos tienen también este poder", dijo el ex consejero delegado de Google.

Sus palabras, lejos de formar parte de una llamada a la prudencia, son un intento por parte de Schmidt de que EEUU acelere el paso en la carrera por armarse militarmente con los últimos avances en IA. Sin ir más lejos, él mismo, como inversor, levantó recientemente un fondo de más de 13 millones de dólares para allanar el camino al Pentágono de ciertas armas militares por IA.

Su voz parece que está siendo escuchada. Lockheed Martin reveló recientemente que su nuevo avión de entrenamiento fue pilotado por inteligencia artificial durante más de 17 horas, lo que supone la primera vez que la IA se emplea de esta forma en un avión táctico. Los hechos, por ahora, se imponen a las buenas intenciones.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.