Un investigador de la IA que lleva más de 20 años alertando sobre la tecnología dice que deberíamos "cerrarlo todo" y prohibirla "indefinidamente y en todo el mundo"

Sawdah Bhaimiya
| Traducido por: 
Se debería prohibir la IA según un investigador.

iLexx/Getty Images

  • Eliezer Yudkowsky, investigador que lleva más de 20 años avisando de los peligros de la IA, asegura que la carta abierta en la que se pide una pausa en el desarrollo de la IA no va lo suficientemente lejos. 
  • Yudkowsky, que ha sido descrito como un "doomer de la IA", ha sugerido prohibir la inteligencia artificial de forma "indefinida y mundial".

Un investigador de la IA que lleva advirtiendo de los peligros de esta tecnología desde principios de la década de 2000 afirma que deberíamos "cerrarlo todo", en un alarmante artículo de opinión publicado por la revista Time el pasado miércoles.

Eliezer Yudkowsky, investigador y autor de inteligencia artificial general desde 2001, ha escrito un artículo en respuesta a una carta abierta de muchos de los grandes nombres del mundo de la tecnología, en la que pedían que se parase el desarrollo de la IA durante 6 meses. 

La carta, firmada por 1.125 personas, entre ellas Elon Musk y el cofundador de Apple Steve Wozniak, pedía una pausa en el entrenamiento de las tecnologías de IA más potentes que son el siguiente paso a GPT-4 de OpenAI.

GPT-4, la nueva versión de la IA de ChatGPT, difunde más información errónea que su antecesor, según un estudio

En el artículo de Yudkowsy, titulado Pausar el desarrollo de la IA no es suficiente: hay que cerrarlo todo, justificaba no firmar la carta porque le parecía que era subestimar la "gravedad de la situación" y una pausa demasiado corta "para resolver" el problema.

"Muchos investigadores empapados en estos temas, entre los que me incluyo, prevén que el resultado más probable de construir una IA sobrehumanamente inteligente, en circunstancias parecidas a las actuales, es que muera literalmente todo el mundo en la Tierra", se lee en el artículo.

En él, sigue explicando que la IA "no se preocupa por nosotros ni por la vida sensible en general", y que actualmente estamos lejos de inculcar ese tipo de principios en la tecnología. 

Yudkowsky ha sugerido, en cambio, una prohibición "indefinida y mundial", sin excepciones para gobiernos y ejércitos. 

"Si los servicios de inteligencia aseguran que un país ajeno a todo tipo de acuerdos internacionales está construyendo un clúster de GPU, hay que tenerle menos miedo a un conflicto armado entre naciones y más a que se viole la pausa del desarrollo de la IA", expone Yudkowsky. Incluso asegura que "hay que estar dispuesto a destruir un centro de datos rebelde mediante un ataque aéreo".

El investigador lleva muchos años lanzando advertencias grandilocuentes sobre las posibles consecuencias catastróficas de la IA. A principios de marzo, Bloomberg lo describió como "doomer de la IA", y la autora del artículo autora, Ellen Huet, señaló que todo su argumento se resume en el "apocalipsis de la IA". 

El cofundador y CEO de Open AI, Sam Altman, llegó a tuitear que Yudkowksy "ha hecho más por acelerar la inteligencia artificial que nadie" y que merece "el premio Nobel de la Paz" por su trabajo. En esta línea, Huet supone que esas declaraciones fueron una indirecta al investigador, ya que sus advertencias sobre la tecnología no han hecho más que despertar más interés en la tecnología.

La IA de moda también tiene brechas de seguridad: un fallo en ChatGPT mostró a otras personas los mensajes de usuarios e incluso datos bancarios

Desde que OpenAI lanzó su chatbot ChatGPT en noviembre y se convirtió en la aplicación de consumo de mayor crecimiento en la historia de internet, Google, Microsoft y otros gigantes tecnológicos han estado compitiendo por lanzar el mejor producto de inteligencia artificial. 

Henry Ajder, experto en IA y miembro del Consejo Asesor Europeo de Meta's Reality Labs, declaró con anterioridad a Business Insider que las tecnológicas están inmersas en una "carrera armamentística competitiva" en un esfuerzo por ser consideradas las "pioneras", lo que puede dar lugar a que se pasen por alto las preocupaciones en torno a la ética y la seguridad en la IA.

Incluso Altman ha reconocido los temores en torno a la IA, asegurando en un podcast la semana pasada que "sería una locura no tener un poco de miedo, y empatizo con la gente que tiene mucho miedo".

Sin embargo, añadió que OpenAI está tomando medidas para solucionar los problemas y las deficiencias de su tecnología: "Minimizaremos lo malo y maximizaremos lo bueno".

Conoce cómo trabajamos en Business Insider.