La idea de que la inteligencia artificial va a acabar con los seres humanos es una patraña

Beatrice Nolan
| Traducido por: 
Sam Altman, CEO de OpenAI.
Sam Altman, CEO de OpenAI.

Kevin Dietsch/Getty

  • Los más agoreros quieren hacerte pensar que la inteligencia artificial podría dar un golpe de Estado en cualquier momento, pero los expertos en la tecnología se oponen a esta idea.
  • Muchos se arquean sus cejas ante los supuestos riesgos existenciales de la IA, calificándolos de distracciones, y argumentan que las grandes tecnológicas utilizan ese miedo para proteger sus propios intereses.
Análisis Faldón

Durante los últimos meses, se ha hablado mucho sobre la posibilidad de que la inteligencia artificial acabe con la humanidad. Tanto los padrinos de esta tecnología como los principales directores ejecutivos del sector han hablado de ello. Ha habido una avalancha interminable de advertencias sobre cómo la IA va a ser una enemiga y no una aliada del ser humano.

La cuestión es que, no solo es improbable que se produzca un golpe de Estado a manos de la inteligencia artificial, sino que la idea de que se produzca se está utilizando convenientemente para desviar la atención de problemas más graves, según han denunciado recientemente numerosos precursores de esta tecnología.

Dos expertos, entre ellos el científico jefe de IA de Meta (la matriz de Facebook, Instagram y WhatsApp), han calificado estas advertencias como distracciones, señalando con el dedo a las empresas tecnológicas que intentan proteger sus propios intereses.

El padrino de la inteligencia artificial, Yann LeCun, científico jefe de Meta, ha acusado a algunos de los precursores más destacados de esta tecnología de "alarmismo" y de "presión masiva de las compañías" para servir a sus propios intereses. En su opinión, gran parte de la retórica catastrofista trata de mantener el control de la IA en manos de unos pocos.

"Altman, Hassabis y Amodei son los que están haciendo lobby de forma masiva en este momento", escribió LeCun en su cuenta personal de la red social anteriormente conocida como Twitter. "Son los que están intentando realizar una captación reguladora de la industria de la inteligencia artificial".

Demis Hassabis, de Google DeepMind, declaraba hace poco a CNBC que no estaba de acuerdo con muchas de las observaciones de LeCun y añadía que era importante iniciar pronto un debate en torno a la regulación de la IA.

Los representantes de Sam Altman, de OpenAI, y Dario Amodei, de Anthropic, no han respondido a la petición de declaraciones de Business Insider.

Andrew Ng, profesor adjunto de la Universidad de Stanford y cofundador de Google Brain, ha adoptado una postura similar en una reciente entrevista. Ng declaró al Australian Financial Review que algunas empresas estaban utilizando el miedo a la inteligencia artificial para consolidar su propio dominio del mercado.

Según el medio australiano, algunas grandes tecnológicas no quieren competir con alternativas de código abierto y esperan acabar con la competencia a través de una regulación estricta motivada por el temor a la IA. 

Inteligencia Artificial IA derecho legislación derechos de autor protección de datos

En ese sentido, varios expertos en inteligencia artificial llevan tiempo refutando algunas de las advertencias más descabelladas

No ha ayudado el hecho de que las declaraciones emitidas por varios organismos —y respaldadas por destacados líderes de la inteligencia artificial— hayan sido notablemente vagas, dejando a muchas personas con dificultades para averiguar el sentido de estas dramáticas afirmaciones.

Por ejemplo, un comunicado de 23 palabras respaldado por los directores ejecutivos de algunas de las principales startups de IA, como OpenAI, DeepMind o Anthropic, establecía un vínculo en gran medida inexplicable entre el auge de la inteligencia artificial avanzada y las amenazas a la existencia humana como la guerra nuclear o las pandemias.

El momento en el que se ha producido esta reacción, antes de la cumbre sobre seguridad de la IA que se ha celebrado a principios de mes en el Reino Unido y tras la reciente orden ejecutiva de Joe Biden, presidente de Estados Unidos, sobre esta tecnología, también es significativo.

Cada vez son más los expertos que advierten de que la preocupación de los gobiernos por los riesgos existenciales de la inteligencia artificial está cobrando prioridad sobre las amenazas más inmediatas.

Aidan Gómez, autor de un trabajo científico que ayudó a desarrollar la tecnología que se esconde detrás de chatbots como ChatGPT, indicaba hace poco a The Guardian que, si bien las amenazas más existenciales planteadas por la IA deben ser "estudiadas y perseguidas", "en términos de riesgo existencial y política pública, no es una conversación productiva que se deba tener".

"En cuanto a políticas públicas y dónde deberíamos tener el foco del sector público o tratar de mitigar el riesgo para la población civil, creo que supone una distracción, lejos de los riesgos que son mucho más tangibles e inmediatos", aseguraba este experto.

 

Merve Hickok, presidenta del Center for AI and Digital Policy, mostraba recientemente una preocupación similar sobre el énfasis de la cumbre británica de la inteligencia artificial en el riesgo existencial.

Aunque el evento "nació inicialmente del compromiso de promover los valores democráticos", según explica Hickok a Business Insider, ahora tiene un "enfoque limitado a la seguridad y el riesgo existencial", lo que corre el riesgo de dejar de lado otras preocupaciones acuciantes para la sociedad civil.

En una carta dirigida al primer ministro británico, Rishi Sunak, el centro presidido por esta experta animó al Gobierno británico a incluir en el orden del día de la reunión temas más preocupantes, "como la imparcialidad, la equidad, la justicia y la rendición de cuentas".

Conoce cómo trabajamos en Business Insider.