No te preocupes, vas a seguir siendo más inteligente que la IA durante mucho tiempo: las máquinas todavía tienen bastante que aprender

Hasan Chowdhury
| Traducido por: 
Ilustración de inteligencia artificial.

Jonathan Knowles/Getty; StudioM1/Getty; Tyler Le/Business Insider

  • La inteligencia artificial ha dominado la agenda del Foro Económico Mundial que, como cada año, ha tenido lugar en Davos, Suiza.
  • Los expertos han insistido en que, a pesar del hype que se le ha dado, la IA es una tecnología bastante limitada: se necesitarán nuevos modelos de inteligencia artificial para crear una herramienta que esté a la altura del ser humano.

Puede que la inteligencia artificial haya sido la comidilla de Davos este año, pero algunos expertos que han participado en el Foro Económico Mundial han lanzado un mensaje bastante contundente a todos los presentes: a la IA todavía le queda mucho camino por recorrer para llegar a ser realmente inteligente.

Resulta fácil entender por qué la inteligencia artificial ha sido uno de los temas principales del encuentro económico que se ha celebrado como cada año en Davos, Suiza. Después de todo, esta tecnología se encuentra en medio de un ciclo de expansión que haría sonrojar a las mismísimos NFT.

En el año que ha transcurrido desde que los líderes mundiales se reunieron en Davos por última vez, titanes tecnológicos de la talla de Google y Microsoft se han esforzado por subirse al carro de ChatGPT, el generador de texto por IA desarrollado por OpenAI, mientras que Bill Gates ha pregonado a los cuatro vientos las capacidades de esta tecnología para cambiar el mundo.

Pero, a pesar de todo este bombo y platillo, los expertos en inteligencia artificial han insistido estos días en que la tecnología —en su estado actual— tiene un alcance bastante limitado. Sobre todo si el objetivo final es desarrollar la IA general. Aquí puedes ver por qué.

La inteligencia artificial apenas está arañando la superficie

En una mesa redonda celebrada el martes pasado sobre IA generativa, varios expertos señalaron en primer lugar los problemas de datos que deben superarse para que la inteligencia artificial actual sea mucho más inteligente.

Daphne Koller, científica informática y "genio" MacArthur, afirmó durante dicha ponencia que los investigadores especializados apenas están empezando a "arañar la superficie de los datos disponibles".

Gran parte de los modelos de IA más populares a día de hoy, como el GPT-4 de OpenAI, se entrenan con los datos que están disponibles públicamente en Internet. En cambio, el tipo de datos que a Koller le gustaría que manejase la inteligencia artificial va más allá.

Daphne Koller, CEO y fundadora de Insitro.
Daphne Koller, CEO y fundadora de Insitro.

Neilson Barnard/Getty

Por un lado, hay un mundo de datos que pueden proceder de la llamada "IA incorporada". Se trata de una inteligencia artificial integrada en agentes externos, como los robots, que pueden interactuar con el entorno físico. Los chatbots actuales no obtienen muchos de esos datos.

Ahora mismo, existe casos puntuales en los que la IA interactúa con ese tipo de entorno para recopilar información. Habría que acordarse de la forma en la que los coches autónomos recogen y analizan datos sobre el tráfico rodado o en cómo se utiliza la inteligencia artificial para detectar los primeros signos de enfermedades de la retina.

El único problema es que aún no existe un modelo de IA polivalente, que pueda analizar y procesar todos esos datos además de los procedentes de internet.

Sam Altman, CEO de OpenAI, en el Foro Económico Mundial de Davos (Suiza).

También faltan datos procedentes de la experimentación.

Como indicaba en Davos la fundadora de Insitro (una startup respaldada por Jeff Bezos que utiliza el aprendizaje automático para facilitar el descubrimiento de fármacos), la capacidad de "experimentar con este mundo" es parte de lo que hace que los seres humanos sean tan eficaces a la hora de aprender. En comparación, la inteligencia artificial carece actualmente de esa capacidad.

Una solución a este problema es darle a la IA la oportunidad de crear sus propios datos sintéticos en lugar de limitarse a los datos creados por los seres humanos que les llegan a través de páginas web.

"Si queremos que estas máquinas crezcan, tenemos que darles la capacidad no solo de hablar in silico entre ellas… sino de experimentar realmente con el mundo y generar el tipo de datos que les ayuden a seguir creciendo y desarrollándose", aseguró Koller en la mesa redonda.

El problema de la arquitectura

El otro problema al que apuntan los expertos gira en torno a la arquitectura de esta tecnología.

Para Yann LeCun, científico jefe de inteligencia artificial de Meta (la matriz de Facebook, Instagram y WhatsApp), está claro que los grandes modelos lingüísticos autorregresivos —LLM, por sus siglas en inglés— en los que se basan los chatbots de IA actuales necesitan "algunas arquitecturas nuevas" para alcanzar el siguiente nivel de inteligencia.

En la actualidad, los modelos de inteligencia artificial como los LLM funcionan tomando, por ejemplo, un fragmento de texto, corrompiéndolo mediante la eliminación de palabras y, a continuación, haciendo que los modelos reconstruyan el texto completo. LeCun sostiene que son bastante buenos haciendo esto con texto, pero, ¿imágenes o vídeo? Olvídate.

"Tomo una imagen corrompida eliminando algunos fragmentos y luego entreno una gran red neuronal para recuperar la imagen. Y eso no funciona o no funciona muy bien", defiende el científico de Meta.

Cabe señalar que hoy en día existen modelos de IA bastante eficaces a la hora de generar imágenes, pero se trata de modelos de texto a imagen, como Midjourney y Stable Diffusion. OpenAI también tiene un modelo de inteligencia artificial para la generación de imágenes, DALL·E, que es independiente de GPT-4.

 

Para LeCun, el camino hacia un modelo de IA que lo haga todo puede que no esté entre las propuestas con las que todo el mundo se obsesiona actualmente.

"Todavía no hay una solución real, pero las cosas más prometedoras en este momento, al menos las que funcionan para el reconocimiento de imágenes —voy a sorprender a todo el mundo— no son generativas", explica.

Koller también ve problemas en los LLM actuales. En su opinión, las iteraciones actuales de estos modelos no son muy buenas, por ejemplo, a la hora de entender la lógica cognitiva básica, como la causa y el efecto.

"Son motores totalmente predictivos; solo hacen asociaciones", argumenta.

Sin embargo, esta no es la primera vez que se plantean dudas sobre la capacidad de los modelos de inteligencia artificial actuales.

En noviembre, un trío de investigadores de Google publicó en ArXiv un artículo académico en el que se descubría que la tecnología de transformación subyacente a los LLM no era muy buena a la hora de generalizar más allá de su conjunto de datos existente. Si el gran objetivo es la IA general, esto no es muy prometedor.

Kai-Fu Lee, fundador de 01.AI.
Kai-Fu Lee, fundador de 01.AI.

Steve Jennings/Getty para TechCrunch

Esto no quiere decir que los grandes modelos lingüísticos actuales sean inútiles. El informático taiwanés y fundador de 01.AI, Kai-Fu Lee, que también estaba en la mesa redonda en la que participaron Koller y LeCun, habló de su "increíble valor comercial". Su empresa alcanzó una valoración de 1.000 millones de dólares menos de ocho meses después de su lanzamiento.

"Resuelven problemas reales, pueden generar contenidos, mejoran drásticamente nuestra productividad y se están implantando en todas partes", afirmó este empresario.

Pero, ¿están a punto de conseguir que las máquinas sean tan inteligentes como los humanos? Al menos no en su forma actual.

Conoce cómo trabajamos en Business Insider.