Los "pilotos" de IA se están volviendo tan buenos que a veces ganan a los humanos en los combates aéreos

Beatrice Nolan
| Traducido por: 
Algunos cazas F-16 controlados por IA (no aparecen en la foto) ya superan a los pilotos humanos en los combates aéreos.
Algunos cazas F-16 controlados por IA (no aparecen en la foto) ya superan a los pilotos humanos en los combates aéreos.US Air Force/Airman 1st Class Dwane R. Young
  • Algunos aviones de combate controlados por inteligencia artificial están superando a pilotos humanos en combates aéreos, según AP.
  • El medio fue testigo de un vuelo experimental de una hora de duración en la base Edwards de las Fuerzas Aéreas de California, en Estados Unidos.

Algunos cazas F-16 controlados por inteligencia artificial ya superan a los pilotos humanos en los combates aéreos, según un informe de Associated Press.

AP ha informado de este hallazgo tras presenciar un vuelo experimental de una hora de duración en la base Edwards de la Fuerza Aérea en California.

Durante el vuelo, el F-16 controlado por IA, llamado Vista, realizó maniobras a más de 550 millas por hora (casi 900 kilómetros por hora) con Frank Kendall, Secretario de la Fuerza Aérea norteamericana, a bordo.

Aunque el sistema de IA aún está en sus inicios, AP informa de que algunas versiones de la tecnología están aprendiendo tan rápidamente que han superado a los pilotos en combates aire-aire.

Los representantes del ejército estadounidense no han respondido de inmediato a una solicitud de comentarios de Business Insider, realizada fuera del horario laboral habitual.

Las Fuerzas Aéreas de EE.UU. han estado explorando activamente la IA, que se ha citado como una tecnología transformadora para la acción militar a nivel mundial.

Aunque la tecnología aún no está totalmente desarrollada, AP informa de que las fuerzas planean construir una flota de más de 1.000 aviones de combate no tripulados con IA. Según el informe, los primeros aviones controlados por inteligencia artificial estarán operativos en 2028.

Kendall ha declarado al medio que había visto lo suficiente durante el vuelo experimental como para confiar en la tecnología para decidir si lanzar armas en una guerra.

Expertos del sector y activistas de derechos humanos han advertido de que el uso de IA para tomar decisiones autónomas durante acciones militares podría provocar errores y víctimas involuntarias.

Un informe reciente afirmaba que Israel estaba utilizando IA para ayudar a identificar objetivos en su guerra contra Hamás sin una supervisión humana exhaustiva. Las Fuerzas de Defensa de Israel negaron entonces estas afirmaciones en una declaración a BI.

Conoce cómo trabajamos en Business Insider.