"No es inconcebible": uno de los padrinos de la IA se resiste a descartar el apocalipsis de las máquinas

El apocalipsis de las máquinas

Getty Images

  • El informático Geoffrey Hinton, considerado como uno de los padres de la IA, ha evitado descartar que la IA pueda traer consigo la extinción de la humanidad.
  • Lo ha hecho en una entrevista con la CBS en la que ha asegurado además que podríamos estar cerca de que las máquinas den ideas para mejorarse a sí mismas.

Cuando la IA no era ni siquiera una posibilidad remota en las novelas de ciencia ficción, él ya estaba ahí. Por eso sus palabras, pronunciadas hace apenas unos días en una entrevista para la CBS, resultan especialmente inquietantes.

—¿En cuanto a las probabilidades de que la IA intente acabar con la humanidad? 

—"No es inconcebible, eso es todo lo que diré".

Quien se muestra tan reacio a descartar el apocalipsis de las máquinas no es otro que Geoffrey Hinton, ganador en 2018 del premio Turing, el considerado premio Nobel de la informática, por sus contribuciones en el campo de las ciencias de la computación, más concretamente en el ámbito de lo que hoy se conoce como deep learning.

No obstante, por encima de todo se trata de un hombre que lleva décadas investigando sobre IA. Lo ha hecho bajo una premisa que en su día no se entendía y que hoy, sin embargo, es una aproximación mayoritaria: no se trata de enseñar a las máquinas a hacer cosas, sino de proporcionarle las redes neuronales necesarias para que ellas mismas aprendan a hacerlas.

Es decir, nunca se trató de enseñar a las máquinas a comportarse como humanos, sino de construir para ellas un cerebro y ver qué eran ellas capaces de hacer con él. 

"El gran problema era si se podía esperar una gran red neuronal que aprendiera simplemente cambiando la fuerza de las conexiones. ¿Se puede esperar que se limite a mirar los datos y, sin ningún tipo de conocimiento previo innato, aprenda a hacer las cosas?", ha explicado Hinton a la CBS. "Y los expertos en inteligencia artificial pensaban que era completamente ridículo". 

Hoy, sin embargo, la propia evolución de la tecnología está cerca de darle la razón. Al fin y al cabo, es esta idea del aprendizaje automático promulgada por investigadores como Hinton la que está sirviendo de base para el desarrollo de todo tipo de herramientas basadas en IA, desde los deepfakes a los generadores automáticos de texto e imagen. 

Todas parten de una misma premisa: la IA se alimenta de una serie de datos y las complejas y potentes redes neuronales que permiten el deep learning hacen el resto.

¿Significa esto que tarde o temprano, inevitablemente, los seres humanos serán sustituidos por máquinas que pueden aprender mucho más rápido y ser mucho más eficaces?

En la misma charla con la CBS, Nick Frosst, uno de los hombres que sabe lo que es trabajar codo con codo con Hinton tanto en el departamento dedicado a la inteligencia artificial de Google como en las instituciones dedicadas a ello en Canadá, no cree que esto vaya a suceder.

"Va a facilitar y agilizar muchos trabajos", ha comentado Frosst, que tampoco ve probable la pronta llegada de lo que se conoce como Inteligencia Artificial General (IAG), es decir, el punto en el que las máquinas reproduzcan el modo de funcionar de la mente humana con tanta exactitud que distinguir unos de otros se vuelva imposible.

Explicado de otra manera, se trata del momento en el que las máquinas, por ejemplo, puedan superar sin demasiados problemas el test de Turing, la archiconocida prueba que permite identificar si una máquina exhibe una inteligencia semejante a la de un humano.

"No creo que la tecnología que estamos construyendo hoy conduzca de forma natural a la IAG. No creo que estemos cerca de eso", ha comentado Frosst.

Hinton estuvo una vez más de acuerdo, aunque se ha mostrado algo más cauto.

"Hasta hace poco, pensaba que pasarían entre 20 y 50 años antes de que llegáramos a la IAG. Ahora creo que pueden ser 20 años o menos".

Elon Musk califica de "limitada" la comprensión de Bill Gates sobre la IA

Y ha añadido: "Podríamos estar cerca del momento en que los ordenadores sean capaces de aportar ideas para mejorarse a sí mismos. Eso es un problema, ¿verdad? Tenemos que pensar mucho en cómo controlar eso". 

De igual manera, explica, es normal que la gente empiece a preocuparse por los potenciales usos de una tecnología que puede dar una inmensa cantidad de poder a determinadas empresas o Gobiernos. 

Sin ir más lejos, por ejemplo, en España hace no mucho llegó al Congreso el debate de hasta qué punto llegarán las capacidades de instituciones como la policía de utilizar IA para identificar a ciudadanos sospechosos de llevar a cabo alguna actividad ilícita.

"Creo que es muy razonable que la gente se preocupe por estas cuestiones, aunque no vaya a ocurrir nada muy grave en los próximos uno o dos años", ha concedido el experto. "La gente debería estar pensando en esto".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.