El cofundador de DeepMind tiene una solución sencilla para que la IA no acabe con la humanidad

Lakshmi Varanasi,
Mustafa Suleyman, cofundador de DeepMind y actual CEO de Inflection AI. (1)
Mustafa Suleyman, cofundador de DeepMind y actual CEO de Inflection AI. (1)

Cortesía de Inflection AI

  • Mustafa Suleyman, cofundador de la división de inteligencia artificial de Google, Google DeepMind, ha hablado acerca de cómo ponerle límites a la IA.
  • La cuestión de cómo controlar esta tecnología preocupa cada vez más y Suleyman ha asegurado habría que empezar por descartar la posibilidad de que la inteligencia artificial pueda actualizar su propio código fuente sin supervisión.

El rápido desarrollo de la IA ha suscitado dudas acerca de si el ser humano estará diseñando en este momento su propia extinción. 

A medida que los sistemas de inteligencia artificial se hacen más potentes, pueden suponer un riesgo para la humanidad mucho mayor, especialmente si sus objetivos dejan de coincidir con los de la gente. 

Para evitar ese escenario catastrófico, Mustafa Suleyman, cofundador de la división de IA de Google, Google DeepMind, ha expresado que existen ciertas capacidades que el ser humano debe descartar en lo que respecta a la inteligencia artificial.

En una entrevista reciente con MIT Technology Review, Suleyman ha sugerido que se debería descartar la "automejora recursiva", un concepto que hace referencia a la capacidad de la IA para mejorarse a sí misma con el paso del tiempo. 

"No te gustaría que tu pequeña inteligencia artificial se pusiese a actualizar su propio código fuente sin tu supervisión", ha declarado este experto. "Quizá debería ser una actividad autorizada, como la manipulación de ántrax o los materiales nucleares". 

Mustafa Suleyman, cofundador de la división de inteligencia artificial de Google, Google DeepMind.

Y, aunque se ha prestado una atención considerable a la regulación de la IA a nivel institucional (la semana pasada, varios directivos tecnológicos como Sam Altman, Elon Musk o Mark Zuckerberg se reunieron en Washington en una sesión a puerta cerrada), Suleyman ha añadido que también es importante que las personas establezcan límites en torno a cómo se utilizan sus datos personales. 

"Esencialmente, se trata de establecer límites, límites que una inteligencia artificial no puede cruzar, y garantizar que esos límites crean una seguridad demostrable en todo el camino, desde el código real hasta la forma en que interactúa con otras IA (o con humanos), pasando por las motivaciones e incentivos de las empresas que desarrollan esta tecnología", ha señalado a MIT Technology Review. 

El año pasado, Suleyman cofundó la startup Inflection AI, cuyo chatbot de inteligencia artificial, Pi, ha sido diseñado para ser un oyente neutral y proporcionar apoyo emocional a sus usuarios. El empresario ha afirmado ahora que, aunque Pi no es "tan sabroso" como otros generadores de textos, es "increíblemente controlable". 

El cofundador de DeepMind se ha mostrado "optimista" en cuanto a la posibilidad de regular eficazmente la IA y no está preocupado por una posible extinción de la humanidad. Según ha indicado durante la entrevista, "hay como 101 cuestiones más prácticas" en las que habría que centrarse, desde la privacidad a los prejuicios, pasando por el reconocimiento facial o la moderación de contenidos.

 

Suleyman solo es uno de los muchos expertos en la materia que se han pronunciado sobre la regulación de la inteligencia artificial. Demis Hassabis, otro cofundador de DeepMind, ha asegurado que el desarrollo de esta tecnología debe hacerse "con cautela, utilizando el método científico" e implicando experimentos y pruebas rigurosas.  

Por su parte, el consejero delegado de Microsoft, Satya Nadella, ha dicho que la forma de evitar una "IA desbocada" es asegurarse de que se empieza por utilizarla en categorías en las que los humanos "inequívoca e incuestionablemente están al mando".

Desde el pasado mes de marzo, casi 34.000 personas, entre ellas algunos de los llamados padrinos de la inteligencia artificial, como Geoffrey Hinton y Yoshua Bengio, han firmado una carta abierta del Future of Life Institute, una organización sin ánimo de lucro, en la que se pide a los laboratorios de IA que pausen el desarrollo de cualquier tecnología más potente que el modelo GPT-4 de OpenAI.

Conoce cómo trabajamos en Business Insider.