El padrino de la IA advierte de que el peor escenario sería que el 1% de la población se hiciese con el poder de esta tecnología para siempre

Hasan Chowdhury
| Traducido por: 
El padrino de la IA advierte el que controle la tecnología podría retener el poder para siempre.

 Kevin Dietsch/Getty Images

  • Parece que todos los augurios sobre el futuro de la IA acaban en catastrofismos. 
  • El padrino de la IA que trabaja en Meta, Yann LeCun, asegura que los sombríos comentarios de los líderes tecnológicos sobre los riesgos de la IA podrían ser perjudiciales. 
  • En su opinión, el peor escenario del futuro de la tecnología está en que el 1% de la población se haga con ese poder para siempre. 

El padrino de la IA, Yann LeCun, está harto de los escenarios catastrofistas sobre el futuro de la nueva tecnología. 

Para LeCun, existe otra amenaza más real en el horizonte: que el 1% de la población hambriento de poder acabe robando a todos los demás las riquezas de la IA. 

El científico jefe de IA de Meta acusó la semana pasada a algunos de los desarrolladores líderes de la tecnología más destacados de "alarmistas" y de ejercer "presión corporativa masiva" para servir a sus propios intereses.

Nombró a personajes tan importantes en el panorama actual como Sam Altman, de OpenAI, Demis Hassabis, de Google DeepMind, y Dario Amodei, de Anthropic, en un extenso post publicado este fin de semana en X (antiguo Twitter).

"Altman, Hassabis y Amodei son los que están ejerciendo presión corporativa masiva en este momento", escribió LeCun, refiriéndose al papel de estos responsables en la configuración de las normas regulatorias sobre la seguridad de la IA. "Ellos son los que están intentando capitalizar la regulación de la industria de la IA". 

El experto tecnológico asegura que si estos esfuerzos tienen éxito el resultado sería una "catástrofe" porque "un pequeño número de empresas controlará la IA."

Y esto no es cosa menor, ya que estamos hablando de personas que se encargan de una tecnología que tendrá el impacto revolucionario que tuvo en su momento el microchip o internet.

Altman, Hassabis y Amodei no han respondido a la solicitud de comentarios al respecto de Business Insider.

Los comentarios de LeCun se produjeron en respuesta a una publicación en X del físico Max Tegmark, quien sugirió que el responsable de IA de Meta no se estaba tomando los argumentos del día del juicio final de la IA lo suficientemente en serio.

"Gracias a @RishiSunak y @vonderleyen por darse cuenta de que los argumentos sobre el riesgo de la IA de Turing, Hinton, Bengio, Russell, Altman, Hassabis y Amodei no pueden refutarse solo con sarcasmo y presión corporativa", escribió Tegmark, refiriéndose a la próxima cumbre mundial sobre seguridad de la IA en el Reino Unido.

LeCun mantiene que la presunta preocupación de los líderes de la tecnología es simplemente un ejercicio de lobby 

Desde el lanzamiento de ChatGPT, los poderosos de la IA se han convertido en importantes figuras públicas.

Pero, según LeCun, fundadores como Altman y Hassabis están dedicando mucho tiempo a sembrar el miedo sobre la tecnología que ellos mismos venden.

En marzo, más de 1.000 líderes tecnológicos, entre ellos Elon Musk, Altman, Hassabis y Amodei, firmaron una carta en la que pedían una pausa mínima de 6 meses en el desarrollo de la IA por las posibles consecuencias que tuviese un avance descontrolado.

La carta citaba los "profundos riesgos para la sociedad y la humanidad" que plantean los hipotéticos sistemas de IA. Tegmark, uno de los firmantes de la carta, ha descrito el desarrollo de la IA como "una carrera suicida".

LeCun y otros afirman que este tipo de advertencias que acaparan titulares no hacen más que cimentar el poder en las manos que la desarrollan y pasar por alto los riesgos reales e inminentes de la IA.

Esos riesgos incluyen la explotación de los trabajadores y el robo de datos que genera beneficios para "un puñado de entidades", según el Distributed AI Research Institute (DAIR).

Centrarse en peligros hipotéticos también desvía la atención de la aburrida, pero importante cuestión de cómo se concretan realmente los usos de la IA.

Un experto en seguridad de la IA esboza 8 hipótesis catastrofistas sobre el fin del mundo

LeCun explica cómo la gente está "hiperventilando sobre el riesgo de la IA" porque han caído en lo que él describe como el mito del "despegue duro", que se refiere a la idea de que "en el momento en que se enciende un sistema superinteligente, la humanidad está condenada a sus consecuencias".

Pero el apocalipsis inminente es improbable en estos momentos, argumenta, porque toda nueva tecnología pasa de hecho por un proceso de desarrollo muy ordenado antes de llevarse a cabo un lanzamiento generalizado.

Así que el área en la que hay que centrarse es, sobre todo, cómo se desarrolla la IA en la actualidad y en qué usos se le están dando en este momento. 

Para LeCun, el verdadero peligro es que el desarrollo de la inteligencia artificial quede en manos de entidades privadas con ánimo de lucro, que nunca publiquen sus resultados y se aprovechen del poder que les genera, mientras que la comunidad de código abierto de la inteligencia artificial desaparece.

Una de sus máximas preocupaciones es que sean los propios reguladores los que dejen que esto ocurra porque están distraídos con los argumentos de que los robots se volverán asesinos y acabarán con la humanidad.

Líderes como LeCun han defendido con contundencia a los desarrolladores de código abierto porque su trabajo en herramientas que rivalizan, por ejemplo, con ChatGPT de OpenAI, aporta un nuevo nivel de transparencia al desarrollo de la IA.

La empresa para la que trabaja LeCun, Meta, ha creado su propio modelo de lenguaje de gran tamaño que compite con GPT, denominado LLaMa 2, que es (en cierto modo) de código abierto. 

La idea es que la comunidad tecnológica en general pueda echar un vistazo, examinar y probar el modelo. Ninguna otra gran empresa tecnológica ha realizado un lanzamiento similar de código abierto, aunque se rumorea que OpenAI está pensando en ello.

Las tecnológicas quieren alterar la forma en la que las personas interactúan con la inteligencia artificial con dispositivos como las Ray-Ban de Meta (izquierda) o el pin de IA de Humane (derecha).

Para LeCun, que el desarrollo de la IA a estas alturas sea un proceso opaco es el verdadero motivo de alarma.

"La alternativa, que ocurrirá inevitablemente si se acaba regulando la desaparición del código abierto de la IA, es que un pequeño número de empresas de la costa oeste de EEUU y China controlen la tecnología de IA y, por tanto, controlen todas las facetas digitales de la gente", sentencia

"¿Qué significa esto para la democracia? y ¿qué significa eso para la diversidad cultural?".

Conoce cómo trabajamos en Business Insider.