El manifiesto que pide frenar el desarrollo de la IA firmado por Elon Musk o Steve Wozniak es un auténtico desastre, según varios expertos

Elon Musk.
Elon Musk.

Reuters

  • Líderes empresariales como Elon Musk, CEO de Tesla, o Steve Wozniak, cofundador de Apple, firmaron un manifiesto esta semana en el que pedían que se retrasase el desarrollo de la inteligencia artificial durante al menos 6 meses.
  • Varios expertos han indicado ahora que el documento es un auténtico desastre y que en un primer momento contaba con varios firmantes falsos.

Elon Musk lleva tiempo mostrándose preocupado ante el avance —que él considera peligroso— de la inteligencia artificial, pero esta semana ha ratificado su postura con un manifiesto. 

Se trata de una carta abierta que ya ha sido firmada por más de 1.800 personas, entre ellas, líderes empresariales de la talla de Steve Wozniak, cofundador de Apple, Emad Mostaque, CEO de Stability AI (una de las principales competidoras de OpenAI, la desarrolladora de ChatGPT) y el propio Musk, CEO de Twitter, Tesla y SpaceX.

El manifiesto, publicado por Future of Life Institute (una organización sin ánimo de lucro), básicamente pide que se ponga en pausa el desarrollo de los modelos de inteligencia artificial más avanzados —como GPT-4— hasta que se puedan desarrollar y aplicar protocolos de seguridad que sean comunes para tales diseños.

"Los sistemas de IA más potentes solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos serán asumibles", sugiere la carta. 

Algunos expertos, como Gary Marcus, profesor emérito de la Universidad de Nueva York y firmante del manifiesto, aseguran que el documento "no es perfecto", pero que en esencia lleva razón: "Debemos ir más despacio hasta que comprendamos mejor las consecuencias". Sin embargo, existen determinadas voces críticas que no están de acuerdo con la misiva. 

El fundador de SpaceX, Elon Musk.

"Los riesgos nunca han tenido que ver con una 'IA demasiado potente'", ha criticado Emily Bender, catedrática de Lingüística de la Universidad de Washington y coautora del primer artículo que cita la carta. "Tienen que ver con la concentración de poder en manos de unas pocas personas, con la reproducción de sistemas de opresión, con el daño al ecosistema informativo y natural".

La valoración de Bender ha sido recogida por Vice, que ha señalado las distintas contradicciones del manifiesto y ha publicado las afirmaciones de determinados expertos que se muestran críticos con el contenido del mismo.

Según Vice, la carta llegó a contar con más de 30.000 firmantes (al escribir este texto, 1.843), entre ellos, Sam Altman, CEO y fundador de OpenAI; Yann LeCun, científico jefe de inteligencia artificial de Meta (matriz de Facebook); o Xi Jinping, presidente de China. Estas firmas eran falsas y han sido eliminadas a posteriori por el Future of Life Institute. 

El medio de comunicación explica que los intereses de esta institución también son cuestionables, ya que se trata de una organización cuya misión es "reducir el riesgo catastrófico, global y vital de las tecnologías poderosas" y su junta acoge a algunos defensores del "largoplacismo", una especie de religión que predica con la búsqueda de la riqueza para dirigirla a la salvación del mundo

"Abordar los riesgos de seguridad [que plantea la IA] requerirá de colaboración y cooperación", ha valorado Arvind Narayanan, profesor de Ciencias de la Computación en Princeton, por su parte. "Desafortunadamente, el revuelo que ha generado esta carta probablemente llevará a que los modelos se bloqueen aún más, haciendo más difícil abordar esos riesgos".

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.