Los creadores de ChatGPT aseguran que la inteligencia artificial superará a la humana en menos de 10 años

Ilustración sobre ChatGPT y OpenAI

 REUTERS/Dado Ruvic

  • OpenAI tiene claro que la inteligencia artificial superará a la inteligencia humana en menos de 10 años, algo que podría suponer un riesgo para la civilización. 
  • La compañía destaca que la IA podría superar a los expertos humanos en la mayoría de las áreas y que es necesario regular esta tecnología. 

Sam Altman, Ilya Sutskever y Greg Brockman, 3 de los cofundadores de OpenAI, la empresa detrás del popular ChatGPT, creen que la inteligencia artificial superará a la inteligencia humana en menos de 10 años

Así lo explican en un artículo publicado en su blog en el que destacan que la IA podría superar a los expertos humanos en la mayoría de las áreas, que será más poderosa que otras tecnologías a las que la humanidad ha tenido que enfrentarse en el pasado y que supondrá un riesgo para la civilización

Y van a más: podría ser tan productiva como las grandes compañías actuales

"No podemos limitarnos a reaccionar. La energía nuclear es un ejemplo histórico común de una tecnología con esta propiedad; la biología sintética es otro ejemplo", escriben. "También debemos mitigar los riesgos de la actual tecnología de IA, pero la superinteligencia requerirá un tratamiento y una coordinación especiales".

A pesar de estas palabras alarmistas, los creadores de ChatGPT creen que todavía hay tiempo para desarrollar una superinteligencia de manera controlada.

Altman y su equipo también tienen claro que sería contraproducente y arriesgado detener cualquier desarrollo de este tipo de tecnología. Algo evidente, ya que ellos mismos están trabajando en dar vida a uno de esos sistemas superinteligentes

En este sentido, OpenAI cree que la única manera de desarrollar una superinteligencia segura sería mediante un régimen de vigilancia global, pero no tienen claro que esto vaya a funcionar. Por ese motivo, reclaman "una sólida supervisión pública". 

"Creemos que los ciudadanos de todo el mundo deberían decidir democráticamente los límites y los valores por defecto de los sistemas de IA", escriben.

"Aún no sabemos cómo diseñar un mecanismo de este tipo, pero tenemos previsto experimentar con su desarrollo. Seguimos pensando que, dentro de estos amplios límites, los usuarios individuales deberían tener mucho control sobre cómo se comporta la IA que utilizan", continúan. 

Además, desde la compañía, también dan 3 claves para evitar el riesgo existencial que podría suponer una mala gestión de esta tecnología. 

Lo primero, un desarrollo coordinado que permita su integración en la sociedad con límites básicos de seguridad. Esto lo harían de 2 formas: una, impulsada por los principales gobiernos del mundo en el que participen los desarrolladores actuales; otra, mediante un acuerdo colectivo vigilado por una organización independiente que marque el ritmo de crecimiento. 

Lo segundo, un organismo similar al que regula la energía atómica para vigilar los avances hacia la superinteligencia. De esta forma, si algo supera un determinado umbral, tendría que someterse a una inspección para evitar un riesgo existencial. 

Y lo tercero, trabajar en una capacidad técnica para hacer que la superinteligencia sea segura. "Se trata de una cuestión de investigación abierta a la que nosotros y otros estamos dedicando muchos esfuerzos", aseguran.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.