OpenAI crea un equipo para controlar a la IA superinteligente: "Actualmente no disponemos de una solución para evitar que se rebele"

Ilustración sobre ChatGPT y OpenAI

 REUTERS/Dado Ruvic

  • OpenAI, la desarrolladora de ChatGPT, sigue posicionándose a favor de establecer mecanismos que controlen la forma en la que se comporta la inteligencia artificial. 
  • En este caso no aboga por una regulación desde el punto de vista administrativo, sino que ha anunciado la creación de un equipo interno encargado de velar por la seguridad de los sistemas de IA superinteligentes.

Uno de los miedos más primarios —y quizá irracionales— que ha despertado el auge de la inteligencia artificial generativa ha sido el de que esta tecnología pueda revelarse y volverse contra el ser humano. 

Así lo han demostrado los numerosos expertos que han asegurado que la IA podría provocar una guerra nuclear o aquellos que han afirmado que la tecnología podría conducir a "la extinción humana". Los responsables de estas herramientas tampoco han hecho mucho por apaciguar los ánimos. Sam Altman, CEO de OpenAI (la desarrolladora de ChatGPT), llegó a comparar a su empresa con el Proyecto Manhattan.

Una de las principales soluciones que se han propuesto en ese sentido ha sido la regulación. Sin embargo, llama la atención que, en esta ocasión, las compañías que se encuentran detrás de esta revolución tecnológica, como Microsoft o la propia OpenAI, han abogado por la legislación. 

El CEO de OpenAI aprovechó una visita reciente a Madrid para volver a pedir que se regulase la tecnología —eso sí, contando con su participación— y Alberto Granados, el presidente de Microsoft España, declaró este miércoles a Business Insider España que "la infraestructura de la inteligencia artificial tiene que tener un freno de mano".

Control sobre la inteligencia artificial.

La desarrolladora de ChatGPT ha realizado un anuncio ahora en el que también parece defender la importancia que tiene el autocontrol. OpenAI ha adelantado a través de su página web que va a crear un nuevo equipo, dirigido por Ilya Sutskever (su científico jefe y uno de los cofundadores de la empresa), para desarrollar formas de dirigir y controlar los sistemas de IA "superinteligentes".

Sutskever ha publicado un artículo junto a Jan Leike, uno de los responsables del equipo de alineación de OpenAI, en el que pronostican que, en una década, podría existir una IA con una inteligencia superior a la humana. Sutskever y Leike alertan de que esta inteligencia artificial no tiene por qué ser benévola, por lo que desde OpenAI deben desarrollar formas de regularla y restringirla.

"Actualmente no disponemos de una solución para controlar una IA superinteligente y evitar que se rebele", reconocen. "Nuestras técnicas actuales, como el aprendizaje por refuerzo a partir de la retroalimentación humana, dependen de la capacidad de los humanos para supervisar la IA. Pero los humanos no podrán supervisar de forma fiable sistemas de IA mucho más inteligentes que nosotros".

Este nuevo equipo, dirigido por los 2 científicos de OpenAI, tendrá acceso al 20% del poder de computación que la compañía ha conseguido obtener hasta la fecha y dedicará los próximos 4 cuatro años a resolver los principales retos técnicos que plantea el control de la inteligencia artificial superinteligente.

Descubre más sobre , autor/a de este artículo.

Conoce cómo trabajamos en Business Insider.