Una carrera armamentística con IA puede crear un mundo aterrorizado a "enjambres de robots asesinos", advierte un fundador de Skype

Kylie Kirschner
| Traducido por: 
Enjambre de drones.

Bulgac/Getty Images

  • El ingeniero Jaan Tallinn participó en el nacimiento de Skype y es el fundador del Instituto Future of Life.
  • Tallinn ha advertido recientemente de los riesgos que entraña una carrera armamentística dominada por la IA, y teoriza sobre letales máquinas.
  • Este mismo año centenares de expertos han firmado una carta abierta en la que se pide una moratoria en la investigación sobre la IA.

"Tal vez estemos creando un mundo en el que ya nadie esté seguro sin confinarse en casa porque podrías ser perseguido por enjambres de robots asesinos".

Estas palabras de advertencia las ha dicho Jann Tallinn, uno de los ingenieros que participó en el nacimiento de Skype. Tallinn las ha pronunciado en una reciente entrevista con Al Jazeera.

El programador estonio es también el fundador del Cambridge Centre for the Study of Existential Risk y del Future of Life Institute, dos organizaciones que se dedican al estudio y la mitigación de potenciales riesgos, y en específico, de los riesgos derivados del desarrollo de tecnologías avanzadas con inteligencia artificial.

Las referencias de Tallinn a enjambres de robots asesinos recuerdan un cortometraje de 2017 titulado Slaughterbots que publicó el propio Fuutre of Life Institute como parte de una campaña en la que se advertía de los riesgos que entraña la implantación de tecnologías IA en el desarrollo de armas.

La película plantea un futuro distópico en el que el mundo ha sido conquistado por drones militares controlados por una inteligencia artificial.

A medida que la IA continúa evolucionando, a Tallinn le preocupa especialmente las implicaciones que podrían tener sus usos militares.

"Poner la IA en el ámbito militar hace que el control de la humanidad sobre esta tecnología se torne más insostenible, porque es en ese momento en el que su desarrollo formará parte de una carrera armamentística", explicó Tallinn en esa entrevista. 

"Cuando estás en medio de una carrera de armas, no tienes mucho margen de maniobra como para pensar en las implicaciones que puede tener la tecnología que estás creando. Solo puedes pensar en las posibilidades que supone y qué ventaja estratégica te puede dar".

Además, que la IA sea ya parte de la guerra podría hacer que sea prácticamente imposible atribuir y responsabilizar a nadie de futuros ataques, abunda el especialista.

"La evolución natural para una guerra completamente automatizada es la aparición de enjambres de diminutos drones que cualquiera con dinero pueda producir y desplegar de forma casi anónima".

Hay un nuevo rey en la IA: el producto más valioso ya no es ChatGPT sino un chip que vale 37.000 euros y cuya demanda está disparada

El Future of Life Institute ha asegurado a Business Insider que comparte las declaraciones que su fundador ha hecho en Al Jazeera.

Los miedos de Tallinn y su instituto en realidad son temores que existen desde hace años. El Future for Life Institute fue fundado hace casi una década, en 2014, y pronto atrajo la atención de magnates como Elon Musk, quien donó 10 millones de dólares a la organización en 2015. 

Pero la problemática ha recibido más atención últimamente, justo después de que OpenAI lanzara ChatGPT a finales del año pasado y otros modelos de IA generativa llegaran al gran público, haciendo que se disparara el temor a que la IA acabe quitándole puestos de trabajo a los humanos. Ahora la preocupación la comparten desde investigadores, famosos, tecnólogos y ciudadanos normales.

También el cineasta Christopher Nolan ha abundado recientemente que la IA podría llegar a tener su momento Oppenheimer. En síntesis, muchos investigadores se están cuestionando la responsabilidad que podrían tener a la hora de desarrollar una tecnología cuyas consecuencias podrían ser imprevisibles.

A principios de este mismo año centenares de expertos, entre ellos el propio Musk, el cofundador de Apple Steve Wozniak, el CEO de Stability AI Emad Mostaque, o investigadores del laboratorio de IA DeepMind de Google y profesores e investigadores firmaron y compartieron una carta abierta propuesta por el propio Future of Life Institute. En la misiva se pedía una pausa de 6 meses en la investigación y desarrollo de modelos de IA.

Aunque Musk firmó, el multimillonario CEO de X, SpaceX o Tesla estaba ya contratando personal para lanzar su propia iniciativa sobre IA generativa, que recibe el nombre de xAI.

"La IA avanzada podría representar un profundo cambio en la historia de la vida en la Tierra, y debería ser planeada y gestionada con un inmenso cuidado y grandes recursos", exponía aquella carta abierta.

"Desafortunadamente, ese nivel de planeamiento no se está dando, y en los últimos meses se ha visto que los laboratorios IA se han lanzado a una carrera sin control para desarrollar y desplegar mentes digitales cada vez más potentes que nadie —ni siquiera sus creadores— podrían llegar a entender, predecir o controlar".

Conoce cómo trabajamos en Business Insider.