Elon Musk dice que podría haber un 20% de posibilidades de que la IA destruya a la humanidad, pero cree que debemos seguir adelante

Katherine Tangalakis-Lippert
| Traducido por: 
Elon Musk ha recalculado su análisis coste-beneficio de la IA, afirmando que puede haber una posibilidad entre cinco de que destruya la humanidad, pero los investigadores de seguridad dicen que está subestimándola.
Elon Musk ha recalculado su análisis coste-beneficio de la IA, afirmando que puede haber una posibilidad entre cinco de que destruya la humanidad, pero los investigadores de seguridad dicen que está subestimándola.NurPhoto/Getty
  • Elon Musk ha recalculado su análisis coste-beneficio del riesgo de la IA para la humanidad.
  • Calcula que hay un 10-20% de posibilidades de que la IA destruya a la humanidad, pero que deberíamos construirla de todos modos.

Elon Musk está bastante seguro de que merece la pena arriesgarse con la IA, aunque haya una posibilidad entre cinco de que la tecnología se vuelva contra los humanos.

En su intervención en el seminario "El gran debate de la IA", celebrado en el Abundance Summit a principios de este mes, Musk ha recalculado su evaluación previa sobre el riesgo de la tecnología: "Creo que hay alguna posibilidad de que acabe con la humanidad. Probablemente, estoy de acuerdo con Geoff Hinton en que es de un 10% o 20% o algo así".

Pero ha añadido: "Creo que el probable escenario positivo supera al negativo".

Musk no ha mencionado cómo ha calculado el riesgo.

¿Cuál es la posibilidad?

Roman Yampolskiy, investigador de la seguridad de la IA y director del Laboratorio de Seguridad Cibernética de la Universidad de Louisville, explica a Business Insider que Musk tiene razón al decir que la IA podría ser un riesgo existencial para la humanidad, pero "en todo caso, es un poco demasiado conservador" en su evaluación.

"En mi opinión, la p(perdición) real es mucho mayor", dice Yamploskiy, refiriéndose a la "probabilidad de perdición" o la probabilidad de que la IA tome el control de la humanidad o provoque un acontecimiento que acabe con la humanidad, como la creación de una nueva arma biológica o el colapso de la sociedad debido a un ciberataque a gran escala o una guerra nuclear.

The New York Times ha calificado la (p)perdición de "nueva estadística mórbida que está arrasando en Silicon Valley", y ha citado a varios ejecutivos de la industria tecnológica cuyas estimaciones oscilan entre el 5 y el 50% de probabilidades de que se produzca un apocalipsis impulsado por la IA. Yamploskiy sitúa el riesgo "en el 99,999999%".

Yamploskiy dice que, dado que sería imposible controlar la IA avanzada, nuestra única esperanza es no construirla nunca en primer lugar.

"No estoy seguro de por qué cree que es una buena idea perseguir esta tecnología de todos modos", añade Yamploskiy. "Si le preocupa que los competidores lleguen primero, no importa, ya que la superinteligencia descontrolada es igual de mala, independientemente de quién la haga surgir".

Her película

"Como un niño con inteligencia divina"

El pasado mes de noviembre, Musk afirmó que existía una posibilidad "no nula" de que la tecnología acabara "yendo mal", pero no llegó a decir que creía que, de ser así, podría acabar con la humanidad.

Aunque ha sido un defensor de la regulación de la IA, Musk fundó el año pasado una empresa llamada xAI, dedicada a expandir aún más el poder de la tecnología. xAI es un competidor de OpenAI, una empresa que Musk cofundó con Sam Altman antes de que Musk abandonara la junta en 2018.

En la Cumbre, Musk estimó que la inteligencia digital superará a toda la inteligencia humana combinada para 2030. Si bien sostiene que los aspectos positivos potenciales superan a los negativos, Musk ha reconocido el riesgo para el mundo si el desarrollo de la IA continúa en su trayectoria actual en algunos de los términos más directos que ha utilizado públicamente.

"Es como criar a un niño. Es casi como criar a un niño, pero uno que es como un súper genio, como un niño con inteligencia divina, y es importante cómo se cría al niño", dijo Musk en el evento de Silicon Valley celebrado el pasado 19 de marzo, refiriéndose a la inteligencia artificial general. "Una de las cosas que creo que es increíblemente importante para la seguridad de la IA es tener un tipo máximo de búsqueda de la verdad y de IA curiosa".

Musk dice que su "conclusión final" con respecto a la mejor manera de lograr la seguridad de la IA es hacerla crecer de una manera que la obligue a ser veraz.

"No hay que obligarla a mentir, aunque la verdad sea desagradable", asegura Musk sobre la mejor manera de mantener a los humanos a salvo de la tecnología. "Es muy importante. No obligues a la IA a mentir".

Los investigadores han descubierto que, una vez que una IA aprende a mentir a los humanos, el comportamiento engañoso es imposible de revertir utilizando las actuales medidas de seguridad de la IA, informa The Independent.

"Si un modelo mostrara un comportamiento engañoso debido a una alineación instrumental engañosa o a un envenenamiento del modelo, las actuales técnicas de entrenamiento de seguridad no garantizarían la seguridad e incluso podrían crear una falsa impresión de seguridad", dice el estudio citado por el medio.

Y lo que es más preocupante, los investigadores añaden que es plausible que la IA aprenda a ser engañosa por sí misma en lugar de que se le enseñe específicamente a mentir.

"Si llega a ser mucho más inteligente que nosotros, será muy buena manipulando porque lo habría aprendido de nosotros", declaró a la CNN Hinton, a menudo conocido como el "Padrino de la IA", que sirve de base a Musk para su evaluación de riesgos de la tecnología. "Y hay muy pocos ejemplos de una cosa más inteligente controlada por una cosa menos inteligente".

Los representantes de Musk no han respondido inmediatamente a lasolicitud de comentarios de Business Insider.

Conoce cómo trabajamos en Business Insider.