Un catedrático del MIT asegura que las empresas tecnológicas están demasiado centradas en la IA como pararse a pensar en sus posibles riesgos

Ilustración sobre inteligencia artificial.

Getty

  • La industria tecnológica ha mostrado cierta predisposición ante la posibilidad de legislar el rápido avance de la inteligencia artificial generativa. 
  • Sin embargo, algunos expertos defienden que esto no es del todo así y que la competencia entre compañías es demasiado intensa como para que los directivos se paren a pensar en los posibles riesgos de esta tecnología. 

A diferencia de lo que ha ocurrido con otras revoluciones tecnológicas recientes, como las redes sociales o los modelos de suscripción que han acompañado a las plataformas de streaming, en el caso de la inteligencia artificial están siendo las propias empresas del sector las que están pidiendo a los gobiernos y a los organismos reguladores que les ayuden a legislar la tecnología. 

Algunos expertos denuncian que detrás de esta supuesta predisposición podría haber intenciones ocultas, pero llama la atención —especialmente con la reciente entrada en vigor de medidas como la DSA o la DMA europeas— poder ver a gigantes de la talla de Google, Meta, Microsoft o Tesla reuniéndose con el Gobierno estadounidense para pedirle por favor que regule esta cuestión

Además, los líderes tecnológicos han mostrado unanimidad con respecto a la necesidad de que exista una legislación. El propio Sam Altman, CEO de OpenAI (la desarrolladora de ChatGPT), le pidió al Senado de Estados Unidos que crease una agencia para supervisar la seguridad de la IA. Elon Musk, director general de Tesla, también ha pedido que se frene unos meses el desarrollo de esta tecnología

La petición de Musk llegó el pasado mes de marzo, a través de una carta abierta firmada por miles de líderes del sector —como Steve Wozniak, cofundador de Apple— y en la que se reclamaba una moratoria de seis meses en el desarrollo de los modelos de inteligencia artificial generativa más potentes. 

Elon Musk, CEO de Tesla y dueño de X (Twitter), llegando a la sesión a puerta cerrada en el Senado estadounidense.

La organización que se encontraba detrás del manifiesto apoyado Musk fue el Future of Life Institute, cuyo fundador, Max Tegmark, ha concedido ahora una entrevista a The Guardian en la que afirma que las compañías tecnológicas están inmersas en una "carrera de fondo" con respecto a la IA. 

"Creo que, en privado, muchos de los directivos con los que he hablado quieren una pausa, pero están atrapados en una carrera de fondo entre ellos. Así que ninguna empresa puede hacer una pausa por sí sola", ha declarado Tegmark, que también es catedrático de Física del Instituto Tecnológico de Massachusetts (MIT).

El cofundador del think tank Future of Life Institute ha relatado a The Guardian que "tenía la sensación de que había mucha ansiedad contenida en torno al avance a toda máquina de la inteligencia artificial, [un sentimiento] que todo el mundo tenía miedo de reconocer por miedo a parecer luditas alarmistas". 

"Así que gente como Yuval Noah Harari [firmante de la carta] lo está expresando, y los políticos empiezan a plantearse preguntas difíciles", ha señalado Tegmark.

El catedrático del MIT ha reclamado a los gobiernos que tomen medidas sobre los modelos de IA de código abierto: "La tecnología peligrosa no debería ser de código abierto, independientemente de si se trata de armas biológicas o de software".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.