Un cofundador de OpenAI afirma que la IA general está cada vez más cerca y que debe tener unos "límites razonables"

Jyoti Mann,
Beatrice Nolan
| Traducido por: 
OpenAI ha lanzado su nuevo modelo de inteligencia artificial, GPT-4o, este mismo mes.
OpenAI ha lanzado su nuevo modelo de inteligencia artificial, GPT-4o, este mismo mes.

OpenAI

  • John Schulman, de OpenAI, asegura que la inteligencia artificial general —AGI, por sus siglas en inglés— podría estar a dos o tres años vista. Schulman subraya la necesidad de que las empresas tecnológicas cooperen para el desarrollo seguro de la AGI.
  • Los expertos llevan tiempo advirtiendo de que la inteligencia artificial general puede llegar a generar varias amenazas existenciales para la humanidad.

El cofundador de OpenAI, John Schulman, ha adelantado que la era de la inteligencia artificial general, la IA que dispondrá de una capacidad intelectual similar, cuando no superior, a la de un ser humano, está al caer. De hecho, la AGI —como se conoce a esta tecnología por sus siglas en inglés— podría estar tan solo a unos años vista.

En una entrevista para el podcast de Dwarkesh Patel, Schulman ha anticipado que la inteligencia artificial general podría llegar en "dos o tres años" y ha agregado que, cuando eso suceda, las compañías tecnológicas van a tener que estar dispuestas a cooperar para garantizar que esta tecnología se desarrolle de forma segura.

"Para que esto funcione, todo el mundo tiene que ponerse de acuerdo en [establecer] unos límites razonables al desarrollo o al entrenamiento constante. De lo contrario, se produce una dinámica de competición en la que todo el mundo intenta ir por delante... y eso puede suponer que la seguridad se vea comprometida", ha expresado el cofundador de OpenAI.

Refiriéndose al proceso de recopilación de grandes cantidades de información que llevan a cabo las desarrolladoras de IA para poder entrenar sus grandes modelos lingüísticos (LLM, por sus siglas en inglés), Schulman también ha indicado que tendría que haber "cierta coordinación entre las entidades más grandes que están desarrollando este tipo de entrenamiento".

Geoffrey Hinton cree que el Gobierno británico debe establecer una renta básica universal para paliar los efectos de la IA en los puestos de trabajo.

La inteligencia artificial general es un término algo controvertido, pero en general se entiende que se refiere a los sistemas de IA que tienen la capacidad de desarrollar capacidades humanas complejas, como el sentido común o el razonamiento.

Los expertos llevan mucho tiempo advirtiendo de que esta inteligencia artificial avanzada podría facilitar la llegada de varias amenazas existenciales para la humanidad, incluido el riesgo de que la IA tome el control o de que los seres humanos se queden obsoletos en sus puestos de trabajo.

Mientras tanto, las grandes tecnológicas se apresuran a desarrollar esta tecnología futurista. OpenAI, donde todavía trabaja Schulman, es una de las empresas que lidera la carrera para desarrollar en primer lugar un modelo de inteligencia artificial general.

El cofundador de la desarrolladora de ChatGPT ha comentado en el podcast de Patel que "si la AGI llegase mucho antes de lo esperado, sin duda querríamos tener cuidado con ella". "Tal vez querríamos ralentizar un poco el entrenamiento y el despliegue hasta que estemos bastante seguros de que podemos afrontarlo con seguridad", ha matizado.

Schulman ha añadido que las compañías deben estar preparadas para "interrumpir el entrenamiento o el despliegue, o evitar ciertos tipos de entrenamiento que consideramos más arriesgados". "Solo hay que establecer unas normas razonables sobre lo que debe hacer cada uno para que todo el mundo limite un poco estas cosas", ha señalado.

Algunos expertos del sector ya pidieron una moratoria en el desarrollo de la IA después de que OpenAI lanzase GPT-4, su anterior modelo de inteligencia artificial. 

En marzo del año pasado, líderes tecnológicos como Elon Musk se sumaron a un grupo de expertos que firmaron una carta abierta en la que expresaban su preocupación por el desarrollo de la IA. Los firmantes de la carta pedían una pausa de seis meses en el entrenamiento de sistemas de inteligencia artificial más potentes que GPT-4.

OpenAI no ha respondido a una solicitud de comentarios de Business Insider, realizada fuera del horario de trabajo habitual.

 

La semana pasada, una portavoz de la desarrolladora de ChatGPT, Kayla Wood, declaró al Washington Post que Schulman se ha hecho cargo de dirigir los esfuerzos de investigación de OpenAI en materia de seguridad. Un cambio que se ha producido después de que Jan Leike, director del equipo de superalineación de la startup, dimitiese la semana pasada y acusase posteriormente a la empresa de dar prioridad a los "productos relucientes" por encima de la seguridad.

Desde entonces, el equipo de seguridad de OpenAI se ha disuelto tras las varias salidas de sus miembros, entre ellos el científico jefe de la desarrolladora de ChatGPT, Ilya Sutskever. Un portavoz de la compañía ha declaraba la semana pasada a The Information que el resto del departamento formaba parte ahora del equipo central de investigación de OpenAI.

Las declaraciones del cofundador de OpenAI llegan en medio de los movimientos de protesta que piden una pausa en el entrenamiento de modelos de IA. Colectivos como Pause AI temen que, si empresas como OpenAI desarrollan modelos de inteligencia artificial superinteligentes, estos podrían plantear riesgos existenciales para la humanidad.

Algunos integrantes del colectivo Pause AI se manifestaron ante la sede de OpenAI la semana pasada, cuando la startup anunció su nuevo modelo de IA, el GPT-4o.

Conoce cómo trabajamos en Business Insider.