Elon Musk está aterrorizado ante la posibilidad de que la inteligencia artificial se apodere del mundo y teme, por encima de todo, al proyecto DeepMind de Google

Elon Musk, CEO de Tesla y SpaceX.
Elon Musk, CEO de Tesla y SpaceX.
  • Elon Musk, CEO de Tesla y SpaceX, ha dicho en repetidas ocasiones que cree que la inteligencia artificial supone una amenaza para la humanidad.
  • De las empresas que ahora mismo están trabajando con tecnología de inteligencia artificial, Musk dice que está preocupado sobre todo por el proyecto DeepMind, propiedad de Google, según ha reconocido en una entrevista en el New York Times.
  • "La naturaleza de la inteligencia artificial que están construyendo es aplastar a todos los humanos en todos los juegos", explica. "Es básicamente el argumento de la película Juegos de Guerra".
  • En la película Juegos de Guerra, estrenada en 1983 y protagonizada por Matthew Broderick, un superordenador entrenador para simular escenarios de guerra se activa por error para iniciar una guerra nuclear.
  • Descubre más historias en Business Insider España.

El multimillonario Elon Musk lleva años alertando sobre un futuro amenazador para la especie humano debido a la evolución de la inteligencia artificial.

En 2019, Musk ya advirtió que los humanos podrían convertirse en un equivalente a los "gatos domésticos" de los nuevos amos de la inteligencia artificial. Desde entonces, ha repetido en diferentes ocasiones que se regule toda la industria de la tecnología de la inteligencia artificial siendo especialmente cautelosos.

De todos los proyectos de inteligencia artificial en los que se está trabajando a día de hoy en todo el mundo, ninguno preocupa tanto a Elon Musk como DeepMind, de Google.

"Solo la naturaleza de la inteligencia artificial que están construyendo es la de aplastar a todos los humanos en todos los juegos", ha razonado Musk en una entrevista publicada por el New York Times. "Quiero decir, es básicamente el argumento de Juegos de Guerra"

En Juegos de Guerra un adolescente interpretado por Matthew Broderick se conecta a un superordenador controlado por inteligencia artificial entrenado para realizar simulaciones de guerra. En su intento de ejecutar un juego llamado "guerra termonuclear global" con el superordenador, la inteligencia artificial acaba convenciendo a las autoridades públicas estadounidenses de que la Unión Soviética está a punto de realizar un ataque nuclear. 

Al final (spoiler para los que no han visto esta película de hace 37 años), el ordenador ejecuta tantas simulaciones de los posibles resultados finales de la guerra termonuclear mundial que declara que no es posible ningún ganador, y que la única manera de ganar es no jugar. La película de 1983 es un reflejo vivo de su tiempo y lugar: el temor en Estados Unidos de una guerra nuclear contra la Unión Soviética todavía en el aire y el miedo a una tecnología cada vez más avanzada.

Pero Musk no sólo ha citado la película al comparar la tecnología DeepMind de Google con lo que aparece en Juegos de Guerra. El fundador de Tesla también ha alertado sobre que la inteligencia artificial podría superar a la inteligencia humana en los próximos 5 años, incluso si no vemos el impacto de una manera inmediata. "Eso no significa que todo se vaya a ir al infierno en 5 años", ha explicado. "Simplemente que las cosas se volverán inestables o extrañas".

Musk fue uno de los primeros inversores en DeepMind, que fue vendida a Google en 2014 por más de 500 millones de dólares, según las noticias publicadas entonces. En lugar de buscar un retorno de su inversión en esa compañía, Musk aseguró en una entrevista de 2017 que entró en DeepMind para echar un ojo a los avances de la rápida evolución de la inteligencia artificial.

Leer más: Elon Musk: "Los que piensan que la inteligencia artificial no va a ser más inteligente que nosotros son mucho más tontos de lo que creen"

"Me dio más visibilidad sobre el ritmo al que las cosas estaban mejorando, y creo que realmente están mejorando a un ritmo acelerado, mucho más rápido de lo que la gente imagina", dijo en la entrevista de 2017. "Sobre todo porque en la vida cotidiana no se ven robots caminando por ahí. Tal vez tu Roomba o algo así. Pero las Roombas no se van a apoderar del mundo".

Pero Musk considera que la inteligencia artificial debería tener una connotación diferente.

"Creo que en general la gente subestima la capacidad de la inteligencia artificial, piensan que es un humano inteligente", afirmó Musk en una charla en agosto de 2019 con el CEO de Alibaba, Jack Ma, en la Conferencia Mundial de Inteligencia Artificial en Shanghái (China). "Pero va a ser mucho más que eso. Será mucho más inteligente que el humano más inteligente".

Leer más: OpenAI, la nueva aventura de Elon Musk: una herramienta de inteligencia artificial capaz de escribir y programar como una persona

Es la "prepotencia", ha dicho en la entrevista concedida al New York Times esta semana, lo que impide que la "gente muy inteligente" se dé cuenta de los potenciales riesgos de la inteligencia artificial.

"Mi valoración de por qué la inteligencia artificial se pasa por alto por la gente muy inteligente es que la gente muy inteligente no cree que un ordenador pueda ser tan inteligente como ellos. Y eso es prepotente y obviamente erróneo."

Lee aquí la entrevista de Elon Musk con el New York Times (en inglés).

Conoce cómo trabajamos en Business Insider.