¿Qué es la inteligencia artificial general? Cómo la tecnología podría dejar completamente obsoletos a los seres humanos

Aaron Mok,
Inteligencia artificial general.

Lidiia Moor/Getty

  • La inteligencia artificial general o IAG podría estar más cerca de lo que parece, según afirman varios expertos en esta tecnología a Business Insider
  • La definición de este término sigue siendo algo difusa, pero los expertos coinciden en que la IAG plantea varios riesgos para la humanidad que deben ser investigados y regulados.

Si algo está demostrando el auge de la inteligencia artificial es que la tecnología puede ser más inteligente de lo que se imaginan incluso los mayores expertos en la materia.

Por ejemplo, los investigadores de Microsoft se sorprendían recientemente al averiguar que GPT-4 —el modelo más avanzado de ChatGPT— puede ofrecer soluciones inteligentes a algunos acertijos como: cómo podrías apilar 9 huevos, un libro, un portátil, una botella y un clavo para que no se caigan

Otro investigador de Microsoft ha relatado que se quedó perplejo cuando consiguió que GPT-4 dibujase un unicornio en un extraño lenguaje de programación. Además, un estudio sugería hace poco que unos avatares generados por IA podrían dirigir su propia ciudad virtual sin apenas intervención humana

Estas capacidades pueden ofrecer una muestra de lo que algunos expertos denominan inteligencia artificial general o IAG: la capacidad de la tecnología para alcanzar cualidades humanas complejas como el sentido común o la consciencia.

Aunque los expertos en IA que han hablado con Business Insider no logran ponerse de acuerdo al adelantar cómo funcionará realmente este tipo de inteligencia artificial, sí que coinciden en señalar que se está avanzando hacia una nueva forma de IA.

Ilustración sobre ChatGPT y OpenAI

Ian Hogarth, coautor del informe anual State of AI e inversor en decenas de startups especializadas en inteligencia artificial, define la IAG como una "IA semejante a Dios" que consiste en un "ordenador superinteligente" que "aprende y se desarrolla de forma autónoma" y entiende el contexto sin necesidad de intervención humana. 

En teoría, la IAG podría llegar a desarrollar autoconsciencia y "ser una fuerza más allá de nuestro control o comprensión", explica Hogarth a Business Insider.

Según apunta un experto que trabaja para la competencia de OpenAI (la desarrolladora de ChatGPT), la IAG tiene el potencial necesario como para parecerse al robot asesino de M3GAN, una película de terror en la que un muñeco que funciona con inteligencia artificial se niega a apagarse cuando se le pide, finge estar durmiendo y desarrolla su propio sistema moral

Sin embargo, Tom Everitt, investigador de seguridad de la IAG en Google DeepMind, asegura que las máquinas no tienen por qué tener sentido de sí mismas para poseer superinteligencia. 

"Uno de los conceptos erróneos más comunes es que la 'consciencia' es algo necesario para la inteligencia", expresa Everitt a Business Insider. "Que un modelo sea 'consciente de sí mismo' no tiene por qué ser un requisito para que estos modelos igualen o superen la inteligencia de un humano".

Everitt define la inteligencia artificial general como sistemas de IA que pueden resolver cualquier tarea cognitiva o humana de formas que no se limitan a cómo han sido entrenados. En teoría, la IAG podría ayudar a los científicos a desarrollar tratamientos para enfermedades, descubrir nuevas formas de energía renovable y ayudar a "resolver algunos de los mayores misterios de la humanidad". 

"Bien hecha, la IAG puede ser una herramienta increíblemente poderosa que posibilite avances que transformen nuestra vida cotidiana", argumenta el investigador de Google.

Los expertos en inteligencia artificial Ian Hogarth (izquierda) y Tom Everitt explican que la IAG está más cerca de lo que parece.
Los expertos en inteligencia artificial Ian Hogarth (izquierda) y Tom Everitt explican que la IAG está más cerca de lo que parece.

Cortesía de Ian Hogarth y Tom Everitt

Los expertos no se ponen de acuerdo al señalar cuándo se hará realidad la IAG

Aunque la definición exacta de la inteligencia artificial general sigue siendo un misterio, los expertos coinciden al apuntar que se empiezan a ver indicios de cómo será en un futuro. 

Geoffrey Hinton, conocido como el "padrino de la IA", declaró en CBS que la IAG podría llegar en apenas 5 años. A principios de este mes, Hinton también aseguró a la BBC que los chatbots de inteligencia artificial pronto podrían ser más inteligentes que los humanos

"Nadie sabe a ciencia cierta lo lejos que está la industria de desarrollar una IA semejante a Dios", afirma Hogarth, y añade que "realmente no se sabe lo que puede ocurrir" con herramientas como AutoGPT, un asistente virtual que funciona con GPT-4 y que puede configurarse —según Wired— para pedir pizzas y llevar a cabo una campaña de marketing por sí mismo. 

El experto inversor defiende que ya se están viendo indicios de cómo podría funcionar la inteligencia artificial general, con cuestiones como los deepfakes diseñados con fines maliciosos o los bots que pueden jugar al ajedrez mejor que los grandes maestros

Pero eso solo serían indicios: "Los sistemas de IA aún carecen de capacidad de planificación a largo plazo, memoria, razonamiento y comprensión del mundo físico que nos rodea", sostiene Everitt, investigador de Google DeepMind. "Queda mucho trabajo por hacer para averiguar cómo dotar a los sistemas de esas capacidades".

La inteligencia artificial podría dejar obsoletos a los seres humanos si no se abordan sus posibles riesgos

Los expertos señalan que una parte importante del desarrollo de la IAG consiste en comprender y abordar sus riesgos para que la tecnología pueda utilizarse de forma segura.

Un estudio sobre inteligencia artificial reveló que los modelos lingüísticos eran más propensos a ignorar las directrices humanas —e incluso expresaban el deseo de no desconectarse— cuando los investigadores aumentaban la cantidad de información que les ofrecían. Este hallazgo sugiere que la IA, en algún momento, puede llegar a ser tan poderosa que los humanos no sean capaces de controlarla

Si esto ocurriese, Hogarth augura que la inteligencia artificial general podría "marcar el comienzo de la obsolescencia o la destrucción de la raza humana". 

 

Por ese motivo, investigadores como Everitt velan por la seguridad de la IAG, con el fin de anticiparse a "cuestiones existenciales" en torno a "cómo puede la humanidad mantener el control". Según el investigador de DeepMind, Google pone "mucho énfasis en la ética y la seguridad" para "asegurarse de que se está adoptando un enfoque responsable para desarrollar una IA cada vez más inteligente".

Para que la inteligencia artificial se desarrolle de manera responsable, Hogarth argumenta que la regulación es clave: "Los organismos reguladores deberían vigilar muy de cerca proyectos como GPT-4, de OpenAI; Gato, de Google DeepMind; o el proyecto de código abierto AutoGPT".

Muchos expertos en IA y aprendizaje automático reclaman que los modelos de inteligencia artificial sean de código abierto para que el público pueda entender cómo se entrenan y cómo funcionan. "Tenemos que debatir estas grandes cuestiones lo antes posible", afirma Everitt. "Acoger diversas perspectivas y escuelas de pensamiento sobre esto es fundamental".

Conoce cómo trabajamos en Business Insider.