Un grupo de expertos defiende el uso de armas autónomas desarrolladas con inteligencia artificial en Estados Unidos

Armas en el Capitolio

Reuters/THO/ZWO

  • Un grupo de expertos defiende que Estados Unidos no debería aceptar prohibir el uso o desarrollo de armas autónomas desarrolladas por software de inteligencia artificial (IA).
  • Sus partidarios sostienen que las armas autónomas cometen menos errores que los humanos en la batalla, lo que reduciría las bajas causadas por la identificación errónea de objetivos.
  • Descubre más historias en Business Insider España. 

Estados Unidos no debería aceptar prohibir el uso o desarrollo de armas autónomas desarrolladas por software de inteligencia artificial (IA), según apuntan las conclusiones de un grupo de expertos designado por el gobierno en el borrador de un informe para el Congreso.

El grupo, bajo el nombre de Comisión de Seguridad Nacional sobre Inteligencia Artificial y dirigido por el exdirector ejecutivo de Google, Eric Schmidt, terminó el martes 2 días de debate público sobre cómo la mayor potencia militar del mundo debería considerar la inteligencia artificial para la seguridad nacional y el avance tecnológico, tal y como recoge The Guardian

Su vicepresidente, Robert Work, exsubsecretario de Defensa, señaló que se espera que las armas autónomas cometan menos errores que los humanos en la batalla, lo que reduciría las bajas causadas por la identificación errónea de objetivos.

Durante 8 años, una coalición de organizaciones no gubernamentales ha impulsado un tratado que prohíba los 'robots asesinos' aduciendo que el control humano es necesario para juzgar la proporcionalidad de los ataques y asignar la culpa de los crímenes de guerra. Además, la ONU ha realizado reuniones sobre dicho tema desde 2014. 

A pesar de que las armas autónomas llevan varios años en la conversación, la preocupación ha aumentado recientemente por el desarrollo de la inteligencia artificial, así como por los informes que apuntan que hay sesgos en esta tecnología y ponen de manifiesto abusos del software. 

España, entre los 10 países que más armas exportan

El grupo de expertos, a pesar de que reconoce los riesgos de las armas autónomas, solo contempla que los humanos tomen decisiones sobre las armas nucleares. Un miembro de Microsoft, por ejemplo, advirtió sobre la presión para construir máquinas que reaccionen rápidamente, lo que podría intensificar los conflictos.

Mary Wareham, coordinadora de la Campaña para detener a los 'robots asesinos', explicó que el "enfoque de la comisión en la necesidad de competir con inversiones similares realizadas por China y Rusia solo sirve para alentar las carreras armamentistas".

Más allá de las armas impulsadas por IA, el informe del grupo de expertos recomendó el uso de esta tecnología  para agilizar la recopilación y revisión de datos. 

En concreto, 32.000 millones de dólares (26.346 millones de euros al cambio actual) en fondos federales anuales para la investigación y nuevos organismos, incluido un cuerpo digital inspirado en el Cuerpo Médico del ejército, así como un consejo de competitividad tecnológica presidido por el vicepresidente de Estados Unidos.

La Comisión debe presentar su informe final al Congreso en marzo, pero las recomendaciones no son vinculantes. 

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.